Wikipedia im Kampf gegen KI-generierte Inhalte: Das Team WikiProject AI Cleanup

Dienstag, 21 Januar 2025 19:55

Wikipedia kämpft gegen die zunehmende Gefahr von KI-generierten falschen Inhalten. Das Projekt WikiProject AI Cleanup soll Artikel auf Wikipedia durchforsten und KI-erzeugte Falschinformationen beseitigen.

illustration KI-generierte Inhalte © copyright Sanket Mishra - Pexels

Die Wikipedia-Redaktion steht vor einer ernstzunehmenden Herausforderung: ein zunehmendes Aufkommen von falschen Inhalten, die von künstlicher Intelligenz (KI) wie ChatGPT generiert werden. Um dieser Bedrohung zu begegnen, haben sie das Projekt WikiProject AI Cleanup ins Leben gerufen, ein Team von Freiwilligen, die sich der Aufgabe widmen, Artikel auf Wikipedia zu durchforsten und von KI erzeugte Falschinformationen zu bearbeiten oder zu entfernen.

Ein Kampf gegen KI-generierte Inhalte

Ilyas Lebleu, einer der Initiatoren von WikiProject AI Cleanup, berichtet, dass sein Team die Krise erkannt hat, als ihnen Sätze auffielen, die sich unnatürlich anfühlten, wie von einem Chatbot geschrieben. Um diese Vermutung zu überprüfen, erzeugten sie mit ChatGPT ähnliche Sätze und stellten fest, dass die Ergebnisse stark an die in Wikipedia gefundenen Texte erinnerten.

„Wir fanden einige Sätze, die typisch für KI-generierte Texte sind, und das half uns, schnell eine Reihe erschreckender Beispiele zu finden, die tatsächlich von KI erstellt wurden“, erklärt Lebleu. „Daraufhin beschlossen wir, dieses organisierte Projekt zu starten, um unsere Techniken und Erkenntnisse zu bündeln.“

Ein Beispiel für KI-generierte Falschinformationen

Ein Beispiel für die Gefahr von KI-generierten Inhalten ist der Artikel über eine osmanische Festung namens Amberlisihar, die im 15. Jahrhundert erbaut worden sein soll. Der Artikel war sehr detailliert und enthielt Informationen über den Standort und die Bauwerke. Doch bei näherer Betrachtung stellte sich heraus, dass Amberlisihar nie existiert hat! Alle im Artikel enthaltenen Informationen waren frei erfunden und mit einigen wahren Informationen vermischt, um den Artikel glaubwürdig erscheinen zu lassen.

Der Missbrauch von KI beschränkt sich nicht auf neue Artikel. Auch viele ältere Artikel wurden mit KI-generierten Texten aktualisiert, sogar solche, die bereits von der Wikipedia-Redaktion geprüft worden waren.

Obwohl Lebleu und andere Redakteure die Gründe für diese Manipulationen nicht genau kennen, lassen sich Vermutungen anstellen. Wikipedia ist eine offene Plattform, auf der jeder zum Redakteur werden kann. Dieser offene Charakter ist auch der Grund, warum viele Universitäten ihren Studenten verbieten, Wikipedia als Informationsquelle für ihre Hausarbeiten zu verwenden.

Der Kampf gegen den Missbrauch von KI ist ein Marathon, der noch lange nicht gewonnen ist. Das Team von Wikipedia hat jedoch deutlich gemacht, dass sie entschlossen sind, die Plattform für ihre Nutzer zu schützen. Sie werden weiterhin neue Methoden und Strategien entwickeln, um KI-generierte Inhalte zu erkennen und zu entfernen.

Ähnliche Artikel

Neue Studie enthüllt: Künstliche Intelligenz kann uns helfen, den Klimawandel zu bekämpfen
Künstliche Intelligenz: Wie ChatGPT unsere Arbeitswelt verändert
Meta veröffentlicht Llama 3.2: Ein Open-Source-KI-Modell mit multimodalen Fähigkeiten
Google Meet mit KI: Effizientere und Barrierefreie Online-Meetings
Chatbots: Die digitale Revolution im Kundenservice und darüber hinaus
Künstliche Intelligenz verbessert die Vorhersage von Erdbeben
AWS Trainium3: KI-Revolution in der Cloud
LinkedIn räumt ein: Benutzerdaten für KI-Training verwendet
KI-Revolution: Chancen und Herausforderungen für die deutsche Wirtschaft
Bing Generativ: Microsofts KI-gestützte Suchmaschine
KI-Revolution: Mehr Effizienz durch Automatisierung
Windows 11: Recall-Funktion sorgt für Datenschutz-Bedenken