Wir trainieren unsere KI. Oder umgekehrt.
Wo begegnen uns Algorithmen und Künstliche Intelligenz, und wie verändern sie unsere Wahrnehmung? Ein Gastbeitrag von Dr. Hendrik Heuer und Dr. Juliane Jarke vom Institut für Informationsmanagement Bremen anlässlich der Premiere von „VERFALL. Ein Picknick im Grünen“.
Bei Künstlicher Intelligenz (KI) denkt man vielleicht zuerst an Roboter und Science Fiction. Künstliche Intelligenz, insbesondere Maschinelles Lernen, ist aber schon heute ein wichtiger Teil unseres Alltags. Milliarden von Menschen nutzen Empfehlungssysteme auf Plattformen wie YouTube und Netflix.
Sieben von zehn Videos, die auf YouTube angesehen werden, wurden von einem KI-System vorgeschlagen.
Durch ihre Vorschläge prägen KI-Systeme, was Nutzerinnen und Nutzer wahrnehmen und was nicht. Auch das Tippen auf Smartphones wird durch den Einsatz dieser Techniken beeinflusst. Hat man die Buchstaben „H“, „U“, „N“ getippt, wird die Sensitivität der Tasten automatisch so angepasst: die Wahrscheinlichkeit, die Taste „D“ zu drücken, steigt, die Wahrscheinlichkeit der Tasten „S“ oder „F“ sinkt. Denn das System weiß, dass das Wort „Hund“ Teil der deutschen Sprache ist, „Huns“ oder „Hunf“ aber nicht. Nur so ist es möglich, verhältnismäßig zuverlässig auf kleinen Bildschirmen zu tippen. Weitere alltägliche Beispiele für KI-Systeme sind Spam-Filter, die automatisch unerwünschte Nachrichten herausfiltern können oder Suchmaschinen, die kontextabhängige Ergebnislisten darstellen.
Warum sollten wir uns mit Künstlicher Intelligenz beschäftigen?
Wie stark man sich mit einem KI-System beschäftigen muss, hängt von der Aufgabe ab, die automatisiert wird. Beim Tippen auf dem Smartphone ist es kein Problem, wenn eine Nutzerin oder ein Nutzer nicht wissen, dass KI eingesetzt wird. Bei Spam-Filtern kann es passieren, dass eine Nachricht fälschlicherweise aussortiert wird, obwohl sie wichtig ist. Deshalb müssen Nutzerinnen und Nutzer wissen, dass es einen Filter gibt und wie sie ihn kontrollieren können. Je mehr sie verstehen, wie der Filter funktioniert, desto besser können sie einschätzen, wann sie dem System vertrauen können und wann nicht. Die Beschäftigung mit KI-Systemen wird insbesondere da elementar, wo Systeme auf unsichtbare und sehr subtile Art und Weise Entscheidungen und Meinungen prägen.
Wenn einem Nutzer oder einer Nutzerin nicht bewusst ist, dass YouTube Empfehlungen an die Interessen und Sehgewohnheiten anpasst, kann es zu gravierenden Fehleinschätzungen kommen.
YouTube-Empfehlungen funktionieren dabei so ähnlich wie ein Empfehlungssystem für Musik. Wird jemandem, der gern Bob Dylan hört, ähnliche Musik empfohlen, dann ist dies meist erwünscht. Wenn man sich aber eine differenzierte Meinung zu einem umstrittenen politischen Thema bilden möchte, dann ist es höchstgradig problematisch, wenn man einseitig informiert wird. Vor allem, wenn einem dies nicht bewusst ist. KI-Systeme spielen aber auch in der Automatisierung anderer Bereiche unseres Lebens eine zunehmend wichtige Rolle, etwa im öffentlichen Sektor, im Bildungsbereich, im Gesundheitswesen oder in der Wirtschaft. Die Automatisierung betrifft zum Beispiel Anwendungen für Sprachverarbeitung (z.B. Übersetzungen) oder Bilderkennung (z.B. medizinische Diagnostik) aber auch Entscheidungsunterstützungssysteme (z.B. Steuerprüfung oder vorausschauende Polizeiarbeit). Deshalb ist es so wichtig, sich mit komplexen Machine-Learning-Systemen wie GPT-3 zu beschäftigen. Das im Stück VERFALL. Ein Picknick im Grünen genutzte GPT-3 ist ein wichtiges Beispiel aus der aktuellen Grundlagenforschung zu KI und wird die nächste Generation der Automatisierung maßgeblich prägen.
Wie genau funktioniert Maschinelles Lernen?
Beim Maschinellen Lernen werden Regeln und Anweisungen mithilfe statistischer Methoden aus Daten abgeleitet. Dies ist ein komplett anderer Ansatz als in der klassischen Informatik, wo Anweisungen und Abläufe in Programmiersprachen präzise formuliert werden. Würde man einen Spamfilter mithilfe der traditionellen Methoden entwickeln, so würde man Regeln formulieren. Eine Regel könnte es sein, dass der Begriff „V!agrå“ in einer Nachricht dazu führt, dass sie als Spam markiert wird. In Anbetracht der unzähligen Begriffe, die in Spam-Mails auftauchen können, ist es aber nahezu unmöglich, alle Regeln explizit zu formulieren. Beim Maschinellen Lernen stellt man deshalb eine mathematische Funktion auf, die man mithilfe von Beispielen immer wieder verändert.
Das System wird „trainiert“ und „lernt“.
Den Beispielen (Daten), die genutzt werden, kommt dabei eine zentrale Bedeutung bei. Um sich kritisch mit diesen Daten auseinanderzusetzen, muss man nicht programmieren können. Wichtig ist es, zu verstehen, dass KI-Systeme aus Daten lernen. Wenn es systematische Verzerrungen in den Eingabedaten gibt, z.B. weil es weniger medizinische Daten über People of Colour gibt, dann trifft das System unsichere und damit oft schlechtere Entscheidungen für People of Colour.
Unsere Autor:innen
Dr. Hendrik Heuer ist Wissenschaftler an der Universität Bremen. Die Schwerpunkte seiner Forschung sind Desinformation, verständliche Sprache und die Nutzer:innenerfahrung von Systemen des Maschinellen Lernens (ins. YouTube). Er hat Human-Computer Interaction und Machine Learning in Bremen, Buffalo, Stockholm (KTH), Helsinki (Aalto) und Amsterdam (UvA) studiert.
Dr. Juliane Jarke ist Senior Researcher am ifib und der Universität Bremen. Zuvor hat sie am Centre for the Study of Technology and Organisation an der Universität Lancaster gearbeitet. Ihre Forschungsschwerpunkte sind Digitalisierung und Datafizierung von Bildung und öffentlicher Verwaltung sowie Partizipation und Teilhabe in einer digitalen Welt.
Veröffentlichung: 29.3.22