Müll rein, Müll raus: Beamte stehen vor der scheinbar unmöglichen Aufgabe, die KI zu regulieren

Veröffentlicht: 2023-05-24

Da der Einsatz künstlicher Intelligenz über Plattformen wie Chat GPT rasant zunimmt, sehen sich US-Gesetzgeber mit einigen neuen Fragen konfrontiert. So wie sich die Behörden mit der Verantwortung für soziale Netzwerke befassen mussten, in denen die meisten angezeigten Inhalte von der Öffentlichkeit gepostet wurden, so beschäftigen sie sich jetzt mit der Verantwortung für KI-Plattformen.

Wer ist dafür verantwortlich, dass KIs korrekte, ungiftige Informationen bereitstellen? Niemand weiß es, zumindest noch nicht, und es ist leicht zu verstehen, warum.

Das Problem mit künstlicher Intelligenz

KIs werden durch das Training mit immer mehr Datensätzen intelligenter, und der einfachste Weg, riesige Datenmengen zu finden, mit denen man eine KI trainieren kann, ist die Suche im Internet. Das Problem besteht jedoch darin, dass nicht alles, was gepostet wird, sachliche Informationen darstellt, insbesondere wenn es sich um soziale Medien handelt.

Bei einigen Inhalten, die – in sozialen Netzwerken oder anderswo – gepostet werden, handelt es sich lediglich um Meinungen und nicht um Fakten. Andererseits ist einiges davon einfach falsch: entweder Fehlinformationen wie Gerüchte oder, noch schlimmer, Desinformationen, die absichtlich mit böswilliger Absicht veröffentlicht werden.

Leider können KIs nicht zwischen wahren und falschen Informationen unterscheiden, es sei denn, ein Mensch teilt ihnen mit, dass die Informationen falsch sind. Darüber hinaus haben viele Studien zu KI-Assistenten wie Siri und Alexa gezeigt, wie sich menschliche Vorurteile in die Technologie einschleichen können, die eigentlich unvoreingenommen sein soll.

US-Gesetzgeber sind auch besorgt über mögliche Auswirkungen künstlicher Intelligenz auf die nationale Sicherheit und Bildung. Insbesondere sind die Beamten besorgt über ChatGPT, ein KI-Programm, das in der Lage ist, schnell Antworten auf eine Vielzahl von Fragen zu verfassen. Es entwickelte sich sofort zur am schnellsten wachsenden Verbraucheranwendung aller Zeiten und zog innerhalb weniger Monate über 100 Millionen aktive Benutzer pro Monat an.

Fordert Rechenschaftspflicht in der KI

All diese und weitere Faktoren werfen viele Fragen zur Verantwortlichkeit künstlicher Intelligenz auf. Im April forderte die National Telecommunications and Information Administration, die Teil des Handelsministeriums ist, eine öffentliche Stellungnahme zu möglichen Maßnahmen zur Rechenschaftspflicht. Die Behörde verwies auf ein „wachsendes regulatorisches Interesse“ an einem „Rechenschaftspflichtmechanismus“ für KI.

Konkret möchten die Beamten wissen, ob sie Maßnahmen ergreifen könnten, um sicherzustellen, „dass KI-Systeme legal, effektiv, ethisch, sicher und ansonsten vertrauenswürdig sind“. NTIA-Administrator Alan Davidson sagte gegenüber Reuters, dass „verantwortungsvolle“ künstliche Intelligenzsysteme „enorme Vorteile“ bieten könnten, aber „Unternehmen und Verbraucher müssen ihnen vertrauen können.“

Präsident Joe Biden hatte zuvor gesagt, es sei unklar, ob KI gefährlich sei, und fügte hinzu, dass Technologieunternehmen „die Verantwortung haben, sicherzustellen, dass ihre Produkte sicher sind, bevor sie sie der Öffentlichkeit zugänglich machen“.

Wie KI-Modelle trainiert werden

Natürlich kann eine künstliche Intelligenz nur so gut sein wie die Daten, mit denen sie trainiert wird. Elon Musk, CEO von Twitter, drohte damit, Microsoft zu verklagen, nachdem er Microsoft vorgeworfen hatte, die Daten des sozialen Netzwerks illegal zum Trainieren seines KI-Modells zu nutzen. Einerseits ist Musks Drohung ein Hinweis darauf, dass Big Tech das Eigentum an den von ihm gesammelten Daten beansprucht – die von seinen Nutzern normalerweise kostenlos zur Verfügung gestellt werden. Diese Tech-Giganten machen Geld, indem sie andere Unternehmen für die Nutzung der gesammelten Daten in Rechnung stellen, und das muss Musk im Sinn gehabt haben, wenn Microsoft die Daten von Twitter nutzen würde.

Laut CNBC betrachten KI-Experten soziale Netzwerke als wertvolle Datenquellen für ihre Modelle, da sie Hin- und Hergespräche in einer informellen Umgebung erfassen. Zu Trainingszwecken müssen KIs mit Terabytes an Daten gefüttert werden, und viele dieser Daten stammen von Websites wie Twitter, Reddit und StackOverflow.

Viele der ersten KI-Modelle wurden in Universitäten und Forschungslaboren entwickelt, meist ohne Gewinnerwartung. Da jedoch Big-Tech-Unternehmen wie Microsoft mit großen Kapitalmengen auf diese KI-Modelle umsteigen, beginnen die Gruppen, die hinter diesen KI-Modellen stehen, nach Gewinnen zu streben.

Infolgedessen beginnen die Eigentümer der Daten, mit denen diese KIs trainiert werden, eine Zahlung für den Zugriff auf ihre Daten zu verlangen. Reddit gab beispielsweise im April bekannt, dass es damit beginnen werde, von Unternehmen Gebühren für KI-Modelle zu verlangen, die zu Schulungszwecken Zugang zu seinen Daten erhalten. Andere Unternehmen, darunter Universal Music Group und Getty Images, verlangen eine Bezahlung für die Verwendung ihrer Daten zum Trainieren von Modellen der künstlichen Intelligenz.

Eine kritische Frage für Modelle der künstlichen Intelligenz

Abgesehen davon, dass KI-Modelle auf riesigen Datenmengen trainieren müssen, wird jedoch nicht viel darüber diskutiert, ob soziale Netzwerke wirklich die besten Quellen für das Training von KI-Modellen sind. Es ist kein Geheimnis, dass soziale Netzwerke ein Hort für Desinformation und Falschinformationen sind.

Menschen sind nicht unfehlbar, daher kann es passieren, dass sie versehentlich falsche Informationen posten oder Gerüchte verbreiten, die beide nicht für das Training von KI-Modellen geeignet sind, da sie keine sachlichen Informationen darstellen. Darüber hinaus kehren wir zum Thema menschlicher Voreingenommenheit zurück, da soziale Netzwerke typischerweise mit voreingenommenen Beiträgen gefüllt sind.

Noch schlimmer ist, dass einige Studien darauf hinweisen, dass Facebook und andere soziale Netzwerke konservative Stimmen aktiv zum Schweigen bringen. Wenn das so weitergeht, werden KI-Modelle, die in sozialen Netzwerken trainieren, eine von Natur aus liberale Tendenz haben, einfach aufgrund der Daten, auf denen sie trainiert wurden.

KIs verbreiten nachweislich falsche Informationen

Selbst wenn man das Thema Politik und Liberale vs. Konservative außer Acht lässt, lässt sich nicht überprüfen, ob die Social-Media-Beiträge, die zum Trainieren eines KI-Modells verwendet werden, sachliche Informationen weitergeben. Soziale Netzwerke sind ein Ort, an dem man Meinungen äußern kann, aber was KIs brauchen, sind Fakten, damit sie lernen können, wahre und falsche Informationen zu unterscheiden.

Beispielsweise ergab eine an der Stanford University durchgeführte Studie, dass KIs Hassreden nicht immer genau erkennen können. Selbst Menschen sind sich in dieser Frage oft nicht einig, daher ist ein Modell der künstlichen Intelligenz von Natur aus auf die Vorurteile der Person oder Personen beschränkt, die ihm gesagt haben, was Hassrede darstellt.

Das Problem mit Fehlinformationen oder Desinformationen kann jedoch ein noch größeres Problem sein. Eine Studie ergab beispielsweise, dass ChatGPT dazu neigt, gefälschte anonyme Quellen zu erfinden, wenn es darum geht, einen Nachrichtenartikel über den ehemaligen New Yorker Bürgermeister Michael Bloomberg zu schreiben. Laut NBC New York schienen diese sogenannten „anonymen Quellen“ Bloomberg tatsächlich zu „verärgern“, weil er „seinen Reichtum nutzte, um die öffentliche Ordnung zu beeinflussen“.

Immer mehr Studien belegen, dass ChatGPT und seine Nachfolger wie ChatGPT-4 falsche Informationen verbreiten, wenn ihnen die Möglichkeit dazu gegeben wird. Aus heutiger Sicht unterstreicht die plötzliche Beliebtheit dieser KI die Notwendigkeit eines stärkeren Bewusstseins für die Mängel der künstlichen Intelligenz und intensiverer Studien darüber, wie man sie trainieren und möglicherweise regulieren kann.