KI anstelle der Suchmaschine?

Immer mehr Menschen nutzen Künstliche Intelligenz wie ChatGPT oder Gemini, um Informationen zu erhalten. Immer mehr Menschen entscheiden sich sogar dafür, dass sie mit ChatGPT oder einem anderen Programm interagieren, bevor sie die Suchmaschine starten. Doch die neue Bequemlichkeit hat sehr wohl ihren Preis: KI-Systeme liefern erstaunlich oft fehlerhafte Antworten. Das ist natürlich problematisch. Selbst Forscher haben sich nun zu Wort gemeldet und davor gewarnt, die Suchmaschine durch KI zu ersetzen.

KI beginnt Google zu setzen

Die Nutzung von Künstlicher Intelligenz – KI – als Recherchewerkzeug hat sich dann doch recht schnell in Deutschland entwickelt. Sieht man sich die aktuelle Bitkom-Umfrage, an der mehr als 1.000 Menschen teilgenommen haben, so erkennt man, dass inzwischen die Hälfte der Menschen zumindest gelegentlich KI-Chatbots wie ChatGPT für die Informationssuche einsetzt. Dabei verlassen sich 5 Prozent ausschließlich auf diese Tools. Hier sind es vor allem jüngere Menschen, die nicht mehr zur klassischen Suchmaschine greifen, sondern lieber mit KI arbeiten.

Gleichzeitig integrieren Google und Microsoft auch schon ihre eigenen Modelle: Gemini und Copilot. Wer also etwa Google nutzt, arbeitet ebenfalls mit KI. Google hat in Deutschland sogar einen speziellen KI-Modus eingeführt.

Doch die Bequemlichkeit mag ein paar gravierende Tücken haben. 42 Prozent der Nutzer haben bereits angegeben, dass sie falsche oder gar frei erfundene Informationen von einem Chatbot erhalten haben. Die Europäische Rundfunkunion – EBU -, ein Zusammenschluss von 68 öffentlich-rechtlichen Sendern aus 56 Ländern, ist im Rahmen einer systematischen Untersuchung sogar zu noch düsteren Ergebnissen gekommen: 45 Prozent der Antworten beliebter KI-Modelle enthalten „signifikante“ Fehler. So etwa, wenn es um die Richtigkeit der Fakten geht, um Quellenangaben oder auch darum, wenn zwischen Tatsache und Meinung nicht unterschieden werden kann. Betrachtet man nur die Genauigkeit, so liegt ChatGPT bei 51,5 Prozent fehlerhaften Antworten, Copilot bei 45,4 Prozent, Gemini bei 50 Prozent und Perplexity bei 45,7 Prozent.

Fehlerquote ist eindeutig zu hoch

Doch warum ist die Fehlerquote so hoch? Die Systeme greifen oft auf ältere Daten zu, sodass oftmals Informationen aus der Gegenwart nicht berücksichtigt werden. Des Weiteren übernehmen sie ungefiltert Falschinformationen aus dem Netz und ordnen die Einschätzungen zum Teil sogar den falschen Quellen zu. Das zentrale Problem liegt jedoch im Funktionsprinzip selbst: Sprachmodelle generieren statistisch passende Wortfolgen, ganz egal, ob der Inhalt stimmt. Diese sogenannten Halluzinationen machen KI-Antworten zwar flüssig, aber nicht zwingend wahr.

Wenn hingegen die KI im Gaming eingesetzt wird oder auch im Bereich des Online Glücksspiels, so funktioniert sie schon besser. Entscheidet man sich für ein Online Casino mit internationaler Lizenz, um OASIS zu umgehen und auch auf Live Casino Spiele zugreifen zu können, so wird man überrascht sein, wie viele Anbieter hier bereits mit KI zu tun haben. Die KI hat hier den Vorteil, dass sie anhand des Spielverhaltens auch eigene Boni erstellen kann.

Wenn die KI auf einmal die KI

Der Fehlerkreislauf wird zudem dadurch noch mehr verstärkt, weil die KI-Systeme zunehmend von Inhalten gespeist werden, die selbst von der KI generiert worden sind. Eine Analyse von Originality.ai zeigt, dass die Google-KI häufig jene Websites nutzt, die zu über 10 Prozent KI-generierte Texte enthalten. Auch Wikipedia bleibt an dieser Stelle nicht verschont: Laut einer Untersuchung der Princeton University waren im August des vergangenen Jahres bis zu 5 Prozent der neu erstellten englischen Wikipedia-Artikel vollkommen oder zumindest zum Teil von der KI geschrieben. Diese Texte waren in der Regel weniger fundiert, schlechter belegt und wirkten mitunter sogar etwas werblich.

Aber es darf nicht nur kritisiert werden, sondern es gibt auch positive Entwicklungen. Alle untersuchten KI-Systeme haben sich laut EBU im Vergleich zu den früheren Messungen verbessert. Tech-Konzerne investieren schließlich Milliarden in neue Modelle: Google stellte kürzlich „Gemini 3“ vor, OpenAI veröffentlichte ein Update für „GPT-5“. Beide sollen dadurch zuverlässiger und leistungsfähiger werden. Dennoch bleibt der grundlegende Konflikt aufrecht: Die Werkzeuge entwickeln sich sehr schnell, aber ihre Fähigkeit, Wahrheit zuverlässig zu reproduzieren, verbessert sich nur sehr langsam und bleibt daher kaum kontrollierbar.

Die Unterschiede zu den klassischen Suchmaschinen sind dabei enorm. Forscher an der Ruhr-Universität in Bochum und des Max-Planck-Instituts für Softwaresysteme haben traditionelle Google-Treffer mit den vier generativen Suchmaschinen gegenübergestellt. Das Ergebnis hat gezeigt, dass die KI ein breiteres Netz auswirft und Inhalte aus vielfältigeren Quellen verarbeitet. Doch diese Vielfalt bedeutet nicht, dass es hier mehr Qualität gibt. Häufig stammten die ausgewählten Quellen nicht aus den oberen Trefferlisten einer klassischen Suche. Trotz größerer Datenmenge seien die Antworten damit keineswegs umfassender.

Warum Forscher mehr Standards fordern

Angesichts dieser Entwicklungen wird die Frage, wie man Antworten aus KI-Chatbots korrekt bewerten kann, immer wichtiger. Die Forscher haben etwa betont, dass dringend neue Benchmarks und Standards nötig seien, um die Qualität und Zuverlässigkeit der Systeme zu messen. Auch die Europäische Rundfunkunion fordert hier ganz klare Vorgaben für den Umgang mit Chatbots: Nutzer sollten ihnen auf keinen Fall blind das Vertrauen schenken und die erhaltenen Informationen grundsätzlich gegenprüfen.

Geht es um übermittelte Informationen von der KI, wird Katharina Zweig, die Informatikprofessorin von der Rheinland-Pfälzischen Technischen Universität Kaiserslautern-Landau noch deutlicher. Ihre Einschätzung lautet: „Die erste Regel ist: nicht als Suchmaschine verwenden.“ Sprachmodelle hätten nämlich keine klassische, gesicherte Wissensdatenbank. Die KI reiht vielmehr Wörter aneinander und erzeugt damit Texte, die zwar plausibel erscheinen, aber nicht zwingend wahr sein müssen. Für kreative Prozesse seien solche Systeme gut geeignet, aber „nur dort, wo kein Schaden entsteht“.

Zweig ist des Weiteren überzeugt, dass die KI-basierte Suche langfristig zum Standard wird. So hat sie aber auch auf die enormen Kosten hinter den Modellen verwiesen: Rechenzentren verschlingen gigantische Mengen Strom und Kühlwasser, sodass wohl bald keine kostenlose KI-Suchfunktion mehr möglich sein wird. „Für mich sind die Ergebnisse nicht gut genug, als dass ich dafür bezahlen wollte“, so Zweig. Und sie betonte, dass sich irgendwann die Frage stellen werde, wie sich diese Technologien refinanzieren sollen.

Während die Nutzung von KI-Tools weiter steigt, bleibt aber ihr Einsatz als Wissensquelle also höchst fragwürdig. Die Technologie wird zwar immer mächtiger, aber bei der Zuverlässigkeit gibt es gravierende Schwächen. Am Ende liegt die Verantwortung bei den Nutzern, die dann entscheiden müssen, welchen Antworten sie wirklich trauen.

Kommentar hinterlassen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert