ChatGPT kann wichtige Fakten mit großem Geschick verdrehen und führt sogar einen gefälschten Artikel als Beweis an. Das musste ein Juraprofessor erfahren. Ein Skandal um ChatGPT und seine Anschuldigung der sexuellen Belästigung gegen den Juraprofessor Jonathan Turley hat die potenziellen Fallstricke beim Einsatz von KI-Chatbots zur Generierung von Informationen aufgezeigt, wie die Washington Post berichtet. Im Rahmen einer Forschungsstudie hatte ein Anwaltskollege in Kalifornien ChatGPT gebeten, eine Liste von Juristen zu erstellen, die jemanden sexuell belästigt hatten. Turleys Name wurde in der Liste aufgeführt, und ChatGPT behauptete, dass Turley während einer Klassenfahrt nach Alaska sexuell anzügliche Bemerkungen gemacht und versucht habe, eine Studentin zu berühren, und berief sich dabei auf einen Artikel in der Washington Post vom März 2018 als Quelle der Informationen. Es stellte sich jedoch heraus, dass ein solcher Artikel nicht existierte, es nie eine Klassenfahrt nach Alaska gegeben hatte und Turley bestritt, jemals eine Schülerin belästigt zu haben. KI-Chatbots schöpfen aus einem riesigen Pool von Online-Inhalten, die oft aus Quellen wie Wikipedia und Reddit stammen, um plausibel klingende Antworten auf fast jede Frage zusammenzustellen. Doch nur weil sie gut vorhersagen können, welche Wörter wahrscheinlich zusammen vorkommen, heißt das nicht, dass die daraus resultierenden Sätze immer wahr sind.
via golem: FALSCHE VERDÄCHTIGUNG: ChatGPT beschuldigt Professor der sexuellen Belästigung
siehe auch: KI-BOT ChatGPT erfindet einen Sex-Skandal – und macht einen echten Professor zum Täter. Dass ChatGPT gerne mal Tatsachen erfindet, ist bekannt. Jetzt hat das aber ganz konkrete Folgen im echten Leben: Ein Professor in den USA wurde unschuldig sexueller Übergriffe beschuldigt. Lange Texte verfassen, komplexe Themen im Chat erklären oder einfach quatschen: Es ist mehr als beeindruckend, was die KI hinter ChatGPT alles zusammenschreiben kann. Dass sie dabei etwas fehleranfällig sein kann und Fakten erfindet, sollte einem natürlich bewusst sein. Für Jonathan Turley, einen Professor in den USA, hat der Erfindungsreichtum der KI nun überraschende Folgen. “Es war ziemlich erschreckend”, berichtet Turley der “Washington Post”. Ein Kollege hatte den Chatbot im Rahmen einer Studie nach Forschern gefragt, die schon mal jemanden sexuell belästigt hatten. Und hatte dann auch Turley auf der Liste entdeckt. (…) Das Versagen der KI ist daher besonders problematisch. Durch das vermeintliche Zitat einer seriösen Zeitung wirken die Vorwürfe echt, wenn man sich nicht die Mühe macht, sie genau zu prüfen. Und: Die KI trägt ihre Aussagen sehr selbstbewusst vor. Bei einem unbedachten Leser vermitteln sie den Eindruck: So ist das. Einfach korrigieren ließ sich der Fehler indes nicht. Obwohl Turley regelmäßig in den Medien ist und auch schon Korrekturen in Geschichten veranlassen musste, wusste er diesmal nicht, an wen er sich wenden sollte. Schließlich gab es keinen Autor, der einen Fehler gemacht hatte. Die Firma hinter dem Bot, OpenAI, hatte zwar mit der neuesten Version versprochen, dass ChatGPT weniger “halluzinieren” soll, ausführliche Tests deuten allerdings darauf hin, dass Version 4 des Bots sogar noch mehr faktische Fehler macht als der Vorgänger. Der Professor ist entsprechend nicht der einzige, der durch Falschbehauptungen der KI um seinen Ruf fürchten muss. Erst am Mittwoch hatte “Reuters” gemeldet, dass ein australischer Bürgermeister eine Klage gegen OpenAI erwägt. Der KI-Bot hatte dem Politiker eine Gefängnisstrafe angedichtet – ausgerechnet wegen Bestechung
Von ChatGPT – Diese Grafik wurde mit <a href=”https://de.wikipedia.org/wiki/Microsoft_PowerPoint” class=”extiw” title=”de:Microsoft PowerPoint”>Microsoft PowerPoint</a> erstellt., Gemeinfrei, Link