34C3: Ausufernde Künstliche Intelligenz und Fake News
Hacker nehmen moderne Technologien ganz genau unter die Lupe
Foto: picture-alliance / dpa
Netzaktivist Markus Beckedahl hat vor Risiken im Umgang mit Algorithmen gewarnt und eine bessere Kontrolle der Künstlichen Intelligenz gefordert. "Wir brauchen Regularien, um zu schauen, wie kriegen wir eine Nachvollziehbarkeit und eine demokratische Kontrolle von dem hin, wie Algorithmen eingesetzt werden", sagte der Gründer des Blogs Netzpolitik.org auf dem 34. Chaos Communication Congress in Leipzig.
Das Thema Künstliche Intelligenz habe neue Dimensionen erreicht. So gebe es Durchbrüche im maschinellen Lernen oder neue Daten- und Analysekapazitäten. Zugleich würden Algorithmen häufig in sensiblen Bereichen eingesetzt, etwa bei der Kreditvergabe oder im Gesundheitsbereich. "Es ist ein weites Feld: Gesundheitsalgorithmen muss man anders regulieren als Facebook-Algorithmen", erklärte der Blogger.
Beckedahl warnte vor der zunehmenden Macht der KI-Technologie und forderte mehr Transparenz für die Gesellschaft. Um Unternehmen besser zu kontrollieren, sollten Geschäftsgeheimnisse aufgelockert werden. Auch müsse es neue Kontrollinstitutionen geben, "irgendwo zwischen Datenschutzbehörden und Kartellämtern". Und: "Wir sollen nicht über Metaphern wie 'Algorithmen-TÜV' lachen, die in die Debatte geworfen werden, aber eigentlich nur meinen, dass es eine Kontrollinstanz braucht."
Der Anfang für neue Forschungsgebiete
Hacker nehmen moderne Technologien ganz genau unter die Lupe
Foto: picture-alliance / dpa
Für den Datenjournalisten Michael Kreil wiederum steckt die aktuelle Forschung um Fake News, Social Bots und Filterblasen noch in den Kinderschuhen und muss dringend verbessert werden. "Wir müssen uns tiefer damit auseinandersetzen. Es sind meiner Meinung nach wissenschaftliche Anfangsfehler gemacht worden", sagte er. Beispielsweise ist seinen Analysen zufolge die Einflussnahme durch Social Bots - also durch künstliche Meinungsroboter - wohl geringer als in einigen wissenschaftlichen Studien angenommen.
Kreil ist nach eigenen Angaben in Studien einer britischen und einer US-Universität auf Fehler in der Methodik gestoßen. So habe er in einer Stichprobe von zwölf angeblichen Social Bots tatsächlich nur zwei gefunden. In der Debatte um Social Bots sei viel Meinung unterwegs, aber wenig Beweise, so Kreil. Aktuell sehe er, dass es in den Netzwerken einige wenige Meinungsroboter gebe, aber viele Menschen, die ihre politische Meinung verbreiteten. "Social Bots machen nur einen kleinen Prozentsatz aus."
Fake-News-Verbreiter und ihre Gegenbewegung
Der Journalist beschäftigte sich auch mit Fake News. "Ihr Kernphänomen ist nicht deren Existenz, sondern dass sie sich so gut im Netz verbreiten können." Auf Twitter hatte er genauer eine gefälschte Nachricht untersucht, wonach das Auswärtige Amt wegen Terrorgefahr vor Reisen nach Schweden warne. Anfang März hatte das Amt dazu eine Gegendarstellung in sozialen Netzwerken verbreitet.
Bei der genauen Analyse der Daten habe er festgestellt, dass die Filterblase eher andersherum funktioniere. Nur 45 Prozent derer, die die Gegendarstellung verbreiteten, hätten die ursprünglichen Fake News mitbekommen. Aber: Von den Fake-News-Verbreitern habe ein sehr großer Teil (89 Prozent) die Gegendarstellung mitbekommen, diese aber nicht geteilt.
Diese Tatsache legt die Vermutung nahe, dass ein Großteil der Nutzer, die Fake News verbreiten, diese gezielt unter die Masse bringen wollen, oder sich nicht für die vielleicht unbequeme Wahrheit interessieren. So oder so dürften derartige Forschungen die Diskussionen in der Gesellschaft weiter anregen. Lediglich der Ausgang und das Ergebnis sind die großen Unbekannten.