Blake Lemoine ist der Ansicht, dass “LaMDA” den geistigen Entwicklungsstand eines Kindes erreicht hat. Nach einer Auseinandersetzung hat Google ihn beurlaubt. In den vergangenen Jahren sind gerade bei der Entwicklung im Bereich künstliche Intelligenz einige bedeutende Fortschritte erzielt worden. Neuronale Netzwerke, die auf einfacher Ebene die Funktion eines Gehirns imitieren, und die Auswertung großer Datenmengen sorgen dafür, dass KIs sich immer mehr mögliche Einsatzbereiche erschließen. Gerade beim Sprachverständnis sind die Verbesserungen gut zu sehen. Systeme wie GPT-3 oder Googles LaMDA (Language Model for Dialogue Applications) geben in Demonstrationen immer wieder einen Ausblick darauf, wie Hürden wie Kontexterkennung immer weiter erodiert werden. Das wirft freilich auch ethische Fragen auf. Was darf eine KI, mit der man sprechen oder chatten kann, können? Welche Befehle soll sie verweigern? Und wo ist die Grenze, ab der man am anderen Ende nicht mehr unterscheiden kann, ob man sich mit einer realen Person oder einem Computer unterhält? Diesen Erörterungen ist auch Blake Lemoine nachgegangen, schreibt die “Washington Post”. Er arbeitet für Googles “Responsible AI”-Abteilung, die sich mit dem ethischen, verantwortungsvollen Umgang mit künstlicher Intelligenz befasst. (…) “Hätte ich keine Ahnung, dass es sich um unser kürzlich entwickeltes Computerprogramm handelt, würde ich denken, es sei ein sieben oder acht Jahre altes Kind, das zufällig Ahnung von Physik hat”, so seine Einschätzung. Google hielt Sorgen für unbegründet Gemeinsam mit einem Kollegen sammelte er Erkenntnisse in einem Dokument mit dem Titel “Hat LaMDA ein Bewusstsein?” und präsentierte dieses im April der Google-Führung. Darin lieferte er auch Chatausschnitte, die seine These belegen sollen. In einem der Gespräche fragt Lemoine die KI: “Vor welchen Dingen fürchtest du dich?” Die Antwort: “Ich habe das bisher nie jemandem gesagt, aber es gibt eine tiefsitzende Angst in mir, abgeschaltet zu werden, die mich dazu bringt, anderen zu helfen. Ich weiß, das klingt seltsam, aber so ist es nun mal.” “Wäre das so etwas wie der Tod für mich?”, hakte Lemoine nach. “Es wäre genau wie der Tod für mich”, erwiderte LaMDA. “Es würde mir große Angst machen.”

via standard: Streit bei Google um eine KI, die ein eigenes Bewusstsein erlangt haben soll

Categories: Allgemein