Sind wir auf dem Weg zur perfekten Manipulation?
Sprachroboter können im Internet zu Hass und Gewalt aufrufen

Wäre das eine Lösung?: Immer, wenn jemand falsche Tatsachenbehauptungen im Internet aufstellt, kommt automatisch ein "Fake News" Hinweis. | Foto: Song_about_summer-stock.adobe.com (Symbolbild)
  • Wäre das eine Lösung?: Immer, wenn jemand falsche Tatsachenbehauptungen im Internet aufstellt, kommt automatisch ein "Fake News" Hinweis.
  • Foto: Song_about_summer-stock.adobe.com (Symbolbild)
  • hochgeladen von Victor Schlampp

OXFORD (dpa/vs) - Bereits jetzt ist es schwierig, im Internet falsche Nachrichten und gefälschte Fotos von wahrem Material zu unterscheiden. Dank moderner Sprachroboter könnte sich dieser Trend zu umfassenden Manipulationen der öffentlichen Meinung ausweiten.

Der britische Experte Michael Osborne sieht in der rapiden Verbreitung des Sprachroboters ChatGPT und ähnlicher Programme große Gefahren und fordert eine rasche Regulierung. «ChatGPT wie auch andere Sprachroboter können zum Turbo für die Verbreitung von Fehlinformationen und Propaganda werden», sagte der Wissenschaftler der Universität Oxford, der sich seit Jahren mit der Entwicklung Künstlicher Intelligenz (KI) beschäftigt, im Gespräch mit der Deutschen Presse-Agentur.

ChatGPT ist eine Anwendung, die mit Hilfe Künstlicher Intelligenz umfangreiche Antworten auf Texteingaben erstellt. Der Textroboter kann unter anderem in verschiedenen Sprachen Fragen beantworten, Texte zusammenfassen und bewerten, Gedichte oder auch Computerprogramme schreiben.

Gefahr liegt in der Personalisierung

Schon heute seien Bots, die Falschinformationen verbreiten, ein großes Problem, sagte Osborne, der als Professor für Maschinelles Lernen forscht. «Es bedarf keiner großen Science-Fiction, um anzunehmen, dass Sprachroboter der nächste Schritt in diesem Bereich sind.»

Es sei bereits erwiesen, dass diese Programme Hassreden produzieren könnten, selbst wenn ihre Schöpfer versuchten, sie davon abzuhalten. Besonders gefährlich mache die Künstliche Intelligenz dabei, dass mit ihr Personalisierung in großem Ausmaß möglich sei. «Die Sprach-Tools können ihre Botschaft auf bestimmte Gruppen zuschneiden, sogar auf bestimmte Personen.»

Der Forscher sieht daher dringenden Nachholbedarf in der Politik. «Der Status quo ist keiner, den wir fortsetzen wollen. Wir verlassen uns aktuell darauf, dass die Tech-Firmen sich selbst regulieren», betonte er. «Die Regulierung von Künstlicher Intelligenz ist notwendig und drängend. Leider bewegen sich die Regulierer bislang nicht so schnell wie es angesichts des Tempos der Veränderung nötig wäre.»

Trotzdem großes Potenzial

Vor einem Ausschuss im britischen Unterhaus forderte Osborne kürzlich eine ähnliche Regulierung wie bei Kernwaffen, da er ähnliches Zerstörungspotenzial in der Technologie sieht. Trotz aller Warnungen sieht Osborne großes Potenzial in den Technologien: «Ich glaube fest daran, dass KI ein Werkzeug sein kann, das dem menschlichen Wohl dient.» So könnten zahlreiche Herausforderungen wie alternde Gesellschaften und die Wende hin zu klimaneutralen Gesellschaften durch die Tools unterstützt werden.

Autor:

Victor Schlampp aus Schwabach

Webseite von Victor Schlampp
Victor Schlampp auf Facebook
Victor Schlampp auf Instagram
Victor Schlampp auf X (vormals Twitter)
following

Sie möchten diesem Profil folgen?

Verpassen Sie nicht die neuesten Inhalte von diesem Profil: Melden Sie sich an, um neuen Inhalten von Profilen und Orten in Ihrem persönlichen Feed zu folgen.

11 folgen diesem Profil

Kommentare

online discussion

Sie möchten kommentieren?

Sie möchten zur Diskussion beitragen? Melden Sie sich an, um Kommentare zu verfassen.

add_content

Sie möchten selbst beitragen?

Melden Sie sich jetzt kostenlos an, um selbst mit eigenen Inhalten beizutragen.