Mit der Ausbreitung sozialer Medien hat die Vernetzung der Bevölkerung in den meisten Gesellschaften in den letzten zehn Jahren enorm zugenommen. Im gleichen Zeitraum ist eine zunehmende Fragmentierung der Gesellschaft in zunehmend isolierte Gruppen zu beobachten. Echokammerbildung und gesellschaftliche Polarisierung lassen sich in einem stark vereinfachten Modell des sozialen Gleichgewichts reproduzieren: Die Gemeinschaft zerfällt oberhalb einer kritischen Konnektivität (Anzahl an Freund:innen deren Meinung für meine eigene Meinungsbidung relevant ist) in antagonistische Cluster. Diese zeichnen sich intern jeweils durch eine starke Meinungsübereinstimmung aus, während sie nach außen dominant feindschaftlich gesinnt sind.1 Eine Analyse der algorithmischen Reichweitensteuerung sozialer Medien und des Funktionsprinzips großer Sprachmodelle à la ChatGPT prognostiziert eine Dominanz postfaktischer Inhalte im Internet. Die Rückkopplung synthetisch generierter Inhalte über die sozialen Medien in den Trainingsdatensatz der nächsten Generation von Sprachmodellen führt (Hegemonie verstärkend) zu einem Diversitätsverlust und einem politischen Rechtsdrift der Inhalte im Internet. (…) ChatGPT erzeugt beispielsweise wissenschaftlich anmutende Abhandlungen, inklusive ‚frei erfundener‘ Referenzen, die strukturell stimmig aussehen, aber nicht existieren. ChatGPT ‚erfindet‘ Dinge und produziert dadurch massenweise Fake-Inhalte – das liegt daran, dass es sich um ein statistisches Sprachmodell und nicht um ein wissensbasiertes Modell handelt. ChatGPT ist daher konzeptionell eine Fake-Maschine – hervorragend geeignet für die Verbreitung von Miss- oder gar Desinformation. Für ein Restmaß an „Faktizität“ im Internet ist es wenig förderlich, dass Google und Microsoft die neuesten Versionen ihrer Suchmaschinen mit den jeweiligen Sprachmodellen ChatGPT bzw. Bard koppeln. Denn eines kann Künstliche Intelligenz in Form von Sprachmodellen noch weniger als eine listenbasierte Internetsuche: Fakten prüfen. Da Sprachmodelle lediglich Wahrscheinlichkeiten von für sie bedeutungslosen Sprachformen berechnen, ist ein Faktencheck neuen ‚Wissens‘ (über die Trainingsdaten hinaus) ein blinder Fleck. Damit verstärkt sich ein Effekt, der bereits durch das algorithmische Ranking bei den sozialen Medien erkennbar wurde. Nicht-faktengebundene Inhalte können selbstverstärkend im individuellen Nachrichtenstrom so weit ‚nach oben‘ gespült werden, dass Meinungsbilder verzerrt werden.
via aib: ChatGPT & Social Media: rechtslastige Hegemonieverstärker