Im Übrigen ist menschliche Kontrolle bei einer richtigen KI anscheinend gar nicht erwünscht. Ein Google-KI-Verantwortlicher stellte dazu mal klar, dass es nicht wünschenswert ist, dass der Mensch in irgendwelche Prozesse eingreifen kann bzw. wolle man solches weitestgehend verhindern oder zumindest erschweren. Die irgendwie schon etwas bestechende Argumentation der Google-KI-Entwickler dazu war wie folgt:
Im internationalen Flugverkehr wäre menschliches Eingreifen immer sehr problematisch. Beinahe immer, wenn es hier zu Katastrophen mit unzähligen Toten kommt, sei doch menschliches Versagen die Ursache. Dabei versagt zumeist nicht nur eine Person, sondern es sind ganze Ketten menschlicher Entscheidungen, die zur Katastrophe geführt hätten - vom Bodenpersonal angefangen, über die Wartung der Geräte, bis hin zu den Fluglotsen und zum Piloten. Selbiges wäre auch bei Fahrerlosen Transportsystemen in der Logistik, autonom fahrenden PKW od. Lkw u.ä. der Fall. Hier sei stets menschliches Versagen die Ursache für Unfälle.
Nun ja, was wird Google da wohl bei seiner KI angestellt haben? Sicherlich hat man da das Weiße Haus und auch Brüssel (EU) gefragt, wie man es richtig macht und bestimmt gibt es bei diesen Administrationen/Regierungsstellen fachkompetente u. engagierte Experten, die dies begleiten werden. ![]()
