Ein Rechtsanwalt in New York ließ ChatGPT Präzedenzfälle für eine Klage raussuchen. Doch die Künstliche Intelligenz denkt sich Urteile einfach aus. Es ist nicht der einzige Fall, in dem KI negativ auffällt. Der Fall klang nicht kompliziert: Ein Mann klagt gegen eine Airline, weil ihm auf einem Flug durch einen Servierwagen das Knie verletzt worden sei. Sein Anwalt sucht nach Vergleichsurteilen, um die Klage zu unterfüttern. Und bemüht den Chatbot ChatGPT. Der spuckt gleich auch Fälle aus: “Petersen gegen Iran Air” oder “Martinez gegen Delta Airlines”. Der Bot versieht sie sogar mit Aktenzeichen.Doch als der Jurist seinen Antrag beim Gericht einreicht, kommt raus: Die Fälle sind Fake. Ein gefährlicher Vorgang, sagt der Leiter des Instituts für Jura und Ethik an der Fordham-Universität in New York, Bruce Green. Der zuständige Richter nennt den Fall beispiellos. Die Juristengemeinde ist alarmiert. Der Klägeranwalt beteuert unter Eid, er habe das Gericht nicht täuschen wollen, sondern sich auf die Künstliche Intelligenz verlassen. (…) Manche US-Richter fordern jetzt eine Regulierung für den Einsatz von Künstlicher Intelligenz im US-Justizsystem. Auch Green sieht die Gefahr: Eine Beweisführung mithilfe eines Chatbots könne nicht nur falsche Informationen enthalten. Sie könne auch die Vertraulichkeit verletzen, die ein Anwalt seinen Klienten zusichern muss. “Etwa bei Informationen, die ein Klient nicht preisgeben möchte: Wenn sie in Künstliche Intelligenz eingespeist werden, kann die sie weiter verbreiten.”

via tagesschau: Rechtsanwalt in den USA Wenn KI nach hinten losgeht

siehe auch: Anwälte in New York vor Gericht – KI hatte Präzedenzfälle erfunden. Es ging um eine Klage gegen eine Fluggesellschaft: Zwei Anwälte verwiesen im Verfahren auf frühere Urteile, die es gar nicht gab. Das KI-Programm ChatGPT hat sie sich einfach ausgedacht. Jetzt stehen dafür die Anwälte vor Gericht. Zwei New Yorker Anwälte stehen in den USA vor Gericht, weil sie fiktive juristische Fälle in eine Gerichtsakte aufgenommen haben. Steven A. Schwartz und Peter LoDuca sagten am Donnerstag zu ihrer Rechtfertigung, sie hätten mit dem KI-Programm ChatGPT gearbeitet und nicht gewusst, dass dieser mit künstlicher Intelligenz ausgestattete Chatbot nicht uneingeschränkt vertrauenswürdig sei. Die beiden Anwälte hatten in einer Klage gegen eine Fluggesellschaft auf frühere Gerichtsverfahren verwiesen, die Schwartz für echt hielt, in Wirklichkeit aber von ChatGPT erfunden worden waren. Schwartz erklärte, dass er das relativ neue Programm verwendete, um nach Präzedenzfällen im Zusammenhang mit der Klage eines Mandanten gegen die kolumbianische Fluggesellschaft Avianca wegen einer auf einem Flug erlittenen Verletzung zu suchen.