"Brauch doch einfach ChatGPT!"
Im Verlauf der letzten Jahre ist dieser Satz in all unseren Ohren gewesen. Speziell wenn die Zeit drängt und die Hausaufgaben oder sogar die Abschlussarbeit in der Schule oder im Studium ist noch nicht da, wo sie sein müsste. Der Weg mit dem geringsten Widerstand, wenig Arbeit, eine Datenbank, die für dich alles mögliche zusammenfassen kann und dir noch jeweilige Quellen angibt. Was klingt wie ein Wunsch von der faulsten Person auf dem Planeten wurde Wirklichkeit.
Aber ist es tatsächlich eine Alternative? Eine neue Studie der BBC und ein davon unabhängiger Bericht der Scinexx, einem deutschen Wissenschaftsmagazin, zeigt uns auf, dass wir KI Assistenten wie Open AI's ChatGPT oder Google's Gemini auf keinen Fall unüberlegt für alles Mögliche brauchen sollten.
Erschreckende Daten
Die Realität scheint anders auszusehen, als uns die Firmen hinter dein AI-Tools weismachen wollen. Die neue Studie der BBC zeigt die unglaubliche Fehlerquote von gängigen KI-Assistenten auf, welche einem zum Nachdenken zwingen.
Die Hälfte aller Antworten sollen einen signifikanten Fehler haben.
Bei einem fünftel der Antworten (19%) seien inkorrekte "Fakten" genannt worden.
13% der Antworten beinhalteten abgeänderte Zitate oder zitieren etwas, was nie geschrieben wurde.
Diese Daten hat die BBC in ihrer Studie erheben können. Dabei haben sie gängige KI-Assistenten nach ihren eigenen News-Artikel befragt. Jounralist*innen auf ihrem Fachgebiet haben dann die Antworten auf ihre Genauigkeit geprüft.
Die Konklusion, die aus der Studie mitzunehmen ist, ist klar. KI-Assistenten ist momentan nicht zu vertrauen, wenn es darum geht akurat Neuigkeiten mitzuteilen. Und es besteht ein Risiko, dass Menschen fehlgeleitet werden.
Wie die Falschaussagen von KI-Assistenten entstehen ist der Knackpunkt der BBC Studie. Personen, die AI-Tools brauchen, Medienunternehmen und Behörden wissen nicht wie gross das Problem wirklich ist. Möglicherweise wissen es die Firmen, welche hinter den KI-Systemen stecken, auch nicht.
KI - Gar nicht so intelligent
Im Unwissen, dass KI-Assistenten falsche Fakten oder auch falsche Zitate erstellen, wurden seit paar Jahren auch wissenschaftliche Fachartikel mit AI-Unterstützung geschrieben. So entsteht eine Verzerrung der Realität. Heutzutage brauchen Studierende eher mal Google Scholar als ein Buch in der Bibliothek, um Literatur zufinden, welche ihnen bei ihrer Bachelor-/ oder Masterarbeit als Quellen dienen. Wenn nun in diesen Fachartikeln falsche KI-generierte Informationen drinstecken wäre das sehr problematisch.
Scinexx veröffentlicht einen Bericht über eine Untersuchung der Wirtschaftsuniversität Kattowitz. Dabei ging es darum typische Chat Bot Merkmale in der Google Scholar Suchmaschine wieder zu finden. Sogenannte AI-Relikte wie: "Als KI-Sprachmodell…“, „Meinem letzten Wissens-Update zufolge.“, „Gerne, hier ist…“ oder „Ich habe keinen Zugang zu diesen spezifischen...“ kamen in rund 140 wissenschaftlichen Fachartikel vor, die zwischen 2022 und 2024 veröffentlicht wurden.
Dabei gibt es sicher auch eine Dunkelziffer. Fachartikel die es geschafft haben keine Chat Bot-Relikte in ihrem Text beizubehalten sind unserer Meinung nach wahrschienlich nicht zu unterschätzen.
Unser Wissen stirbt!
Die Daten im Internet, unsere riesige Zusammenfassung von Wissen, also unsere digitale Bibliothek könnte in Gefahr schweben. Wenn es nicht möglich ist KI-generierte "Fakten" von unseren echten Fakten zu unterscheiden, könnte im Internet eine Alternative Realität entstehen.