Künstliche (manipulative) Intelligenz

EDITORIAL

Sie ist in aller Munde – die sog. Künstliche Intelligenz (KI). Sei es als Textgenerator, als kalter Interpret unserer Datenspuren, als Werkzeug für deep fake oder in Einsatz in Maschinen und Prozessen. Legen wir den Fokus heute auf erstere zwei Aspekte.

Roland Lutz, Kantonsrat, Erziehungsrat, Einsiedeln, 06.09.2023

Textgeneratoren für Fiktion und Tatsachen

Wer Texte durch Programme wie ChatGPT generieren lässt, wird schnell einmal feststellen, dass da aus den gelernten Texten nebst durchaus gelungenen Ausgaben auch sinnlose Zusammenhänge geschustert oder falsche Darstellungen ausgespuckt werden. Der Phantasie sind keine Grenzen gesetzt. Schuld daran sind im Wesentlichen trainierte Statistiken über wahrscheinliche Wort- und Satzfolgen, die auch hirnlos sinnlose Kausalitäten und falsche Fakten gebären.

Die werden aber so unverfänglich präsentiert, dass man diese Irrläufer oft nur erkennt, wenn man den zugrundeliegenden Sachverhalt kennt und kritisch bleibt. Einfach glauben, was da präsentiert wird, das kann durchaus ins Auge gehen! Da wird nur allzu oft Fiktion als Tatsache aufgetischt. Auch Urheber- oder Quellenangaben fehlen fast komplett, was eine Überprüfung nicht vereinfacht. Man fragt sich: Warum fehlt eigentlich eine Angabe der Wahrscheinlichkeit der Richtigkeit?

Amerikanischer Wokedrall

Stellt man provokante Fragen mit gesellschaftspolitischem Hintergrund mit Thesen oder Wertungen aus der eher konservativen Ecke, dann wird man schnell einmal in den Senkel gestellt. Die Massregelungen sind sehr woke, tendenziell links und – wie beim Staatsfernsehen – belehrend gefärbt. Interessanterweise passiert das bei Fragen aus der eher progressiveren Ecke nicht. Man erkennt unschwer, dass die Datengrundlagen, und der daraus erlernte Duktus, einseitig aus der zumeist amerikanisch gefärbten linken und woken Ecke stammen.

Es fragt sich mit Fug und Recht, ob man einen Nutzen aus diesen Robotern ziehen kann, wenn man nie sicher sein kann, ob die präsentierten Resultate auch korrekt sind. Es schleckt keine Geiss weg: Ohne Faktencheck sollten solche Texte nie 1:1 verwendet werden. Schüler, Firmen und weitere Akteure werden nun versucht sein dieses Instrument zu nutzen; hoffen wir dabei, dass Leser, Lehrer und Konsumenten dann auch den Wahrheitsgehalt erkennen werden. Was sagten uns die Eltern, als wir noch Kinder waren? Glaub nicht alles!

Big brother is manipulating you? Yes, he is!

Dass wir auf Schritt und Tritt elektronisch vermessen werden, daran haben wir uns wohl gewöhnt. Vielen ist es gar egal. Nicht nur beim Benutzen von Computern, sondern auch bei Gebrauch von Kundenkarten, im Sichtfeld von Kameras oder beim Verwenden von Mikrofonen sammeln Konzerne Daten über uns.

Diese Daten werden auch weiterverkauft und kombiniert, sodass andere Akteure ebenfalls ein sehr scharfes Bild von uns haben. Das beeinflusst dann was uns angeboten wird oder eben auch nicht. Gar politisch kann man uns sehr wohl aufgrund der Erkenntnisse der Daten einordnen. All das ist nicht neu, nun kommt jedoch die zunehmende Hebelwirkung durch den vermehrten Einsatz von KI dazu. Kalt werden wir statistisch vermessen und klassifiziert. Und somit zunehmend kontrolliert und manipuliert.


Quelle: https://www.svp-sz.ch/partei/editorials/kuenstliche-manipulative-intelligenz/

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert