Turing-Test:Künstliche Intelligenz scheitert an Internet-Memen

Die jüngsten Entwicklungen auf dem Gebiet der KI befeuern einmal mehr Ängste und Erwartungen, dass Künstliche Intelligenz die menschliche bald überflügeln und obsolet machen könnte. Doch auch die Schwächen der künstlichen Intelligenz gegenüber der menschlichen werden umso deutlicher. Unter anderem versteht eine Künstliche Intelligenz keine lustigen Internet-Meme!

Autor: Philip Hautmann.

Die jüngeren und spektakulären Entwicklungen auf dem Gebiet der Künstlichen Intelligenz beruhen auf Deep Learning, auf statistikbasiertem Lernen. Auf Grundlage der immer größeren Rechnergeschwindigkeiten, Speicherkapazitäten und vorhandenen Datenmengen kann eine Künstliche Intelligenz mittlerweile gigantische Datenmassen verarbeiten. In diesen Datenmassen sucht die KI nach Mustern und Regelmäßigkeiten. Damit die KI diese Muster oder auch nur einfache Objekte erkennt, muss sie millionenfach mit Daten oder Bildern von den jeweiligen Objekten gefüttert werden: denn die KI hat kein Objektverständnis. Ein Kind versteht sehr schnell, was eine Katze ist. Eine KI muss dazu mit Millionen von verschiedenen Katzenbildern gespeist werden – und „versteht“ es dann immer noch nicht. Die KI kann Katzen dann nur identifizieren – und macht möglicherweise dann trotzdem haarsträubende Fehler dabei.

Künstliche Intelligenz weiß nicht, was der eigentliche Gehalt und der Sinn hinter den Daten ist, die sie bearbeitet. Im Geschäftsalltag scheitert der Einsatz von Künstlicher Intelligenz oftmals an einer inadäquaten Datengrundlage. Es gilt das Prinzip von „garbage in, garbage out“ (auf deutsch „Abfall in, Abfall aus“). Inadäquate Daten liefern inadäquate oder, schlimmer, irreführende Ergebnisse.

Gute Beispiele dafür, wie große Datenmengen dank KI optimal genutzt und gepflegt werden können, liefern die B2B-Plattformen wlw (ehemals „Wer liefert was“) und europages. Die Plattformen bieten eine große Menge an Informationen, um gewerbliche Einkäufer mit den passenden Produkten und Dienstleistungen zusammenzubringen. Das Unternehmen Visable als Träger der beiden Plattformen nutzt selbst KI-Programme zur Pflege der Daten, beispielsweise zur Bereitstellung von Schlüsselwörtern für die Datensuche oder zur Eliminierung von Daten-Duplikaten. Notwendig dafür ist die Verfügbarkeit von qualitativ hochwertigen Daten. Denn Datenquantität ist nicht gleich Datenqualität. Visable hat für die Datensammlung begonnen, Künstliche Intelligenz zu nutzen, um relevante Daten als solche zu identifizieren – im Sinne eines Lernprozesses über intelligente Algorithmen.

Kreative KI und ChatGPT

Trotzdem Künstliche Intelligenz in ihrer derzeitigen Form nicht oder zumindest nicht sonderlich intelligent ist, emuliert sie Intelligenz in spektakulärer Weise. Jüngste Beispiele dafür sind ChatGPT oder KI, die Kunst oder Musik machen kann. Damit rückt die KI scheinbar nicht allein in den Bereich der intelligenten sondern auch der kreativen Leistungen vor – eine Domäne, die wir, zumindest bis vor kurzem, als ureigentlich menschliche betrachtet haben. Böse Zungen im Internet begrüßen das sogar: weil kreative Höhepunkte in Kunst, Literatur oder Musik heutzutage rar erscheinen, solle der KI zumindest eine Chance eingeräumt werden, es besser zu machen.

Über diese Beurteilung kann man unterschiedlicher Meinung sein. Wo die menschliche Kreativität in der jüngeren Zeit aber eine erstaunliche, ja überwältigende Energie zu beweisen scheint, ist die Herstellung von Internet-Memen. Hier findet man sich mit einer wahren Flut von (durchaus komplexen) Inhalten und Ideen konfrontiert, über die man sich immer wieder nur wundern kann.

Natürlich lassen sich auch solche Meme mit-hilfe von KI-basierter Software generieren. Gib einen Text ein und die KI zeigt ein passend scheinendes Meme-Template dazu an: etwa den verloren wirkenden John Travolta aus Pulp Fiction, das „Girl Explaining“ oder Chuck Norris. Das aber ist eine Hilfeleistung und kein Generieren. Abermals „versteht“ die KI nicht, was sie tut. Und zwar eventuell in einem profunderen Sinn, der eine definitive Grenze zwischen menschlichen und maschinellen Fähigkeiten markiert: Künstliche Intelligenz versteht keine lustigen Internet-Meme!

Die Komplexität und Hintersinnigkeit von Internet-Memen

In ihrer jüngst fertiggestellten Dissertation geht die Forscherin Ishaani Priyadarshini der Frage nach, wie weit Internet-Meme eine Künstliche Intelligenz vor eventuell unüberwindliche Verständnisschwierigkeiten stellen könnten. Ursprünglich auf Cybersecurity spezialisiert, wandte sich Priyadarshini vermehrt Problemstellungen der Künstlichen Intelligenz zu und wie sich KI-generierte Bots abwehren lassen.

Ihr Vorschlag: Meme!

Meme sind eine komplexe Angelegenheit. Sie liefern Information über Texte und Bilder – wobei Text und Bild aber in keiner Weise zusammenhängen müssen. Die besten Meme beruhen auf einer hochgradig exzentrischen Zusammenstellung von Inhalten. Meme sind mehrdeutig und referenzieren auf bestimmte kulturelle Gedächtnisinhalte (und sind damit auch in einem gewissen Grad und gewollt „Insiderwitze“). Die beliebtesten Meme werden in ihrer fortwährenden Verwen-dung meist auch autoreferenziell und selbst-ironisch und damit zu einem Element ihrer eigenen Botschaft. Memen scheint ein subversives Element selbst innezuwohnen, wie auch ein gewisser hintersinniger Überschuss, der nicht genau begriffen werden kann. Meme sind einerseits eindeutig, andererseits ständig in der Schwebe. Sie setzen sich durch und leben so lange, als sie ständig weiterentwickelt werden und mutieren. Wenn man so will, scheint dieser rätselhafte Überschuss der Meme ihre Adressierung an das menschliche Imaginationsvermögen in all seinen komplexen Ausprägungen selbst zu sein. Kann eine Künstliche Intelligenz mit Phantasie und Imaginationsvermögen ausgestattet sein? Allein schon einmal die delikaten Texte und Bilder scheint eine KI nicht gut zu verstehen.

So hat Priyadarshini Programme und Algorithmen tesseract, pixel link und east detector zur Texterkennung eingesetzt und CNN, RCNN und Transfer Learning zur Gesichtserkennung. Trotzdem ist die Interpretation der Meme für die Künstliche Intelligenz schwierig geblieben.

„Die Welt ist alles, was der Fall ist“ (L. Wittgenstein)

Wieso scheitert Künstliche Intelligenz daran, Meme angemessen zu verstehen? Zunächst enthalten Meme eine gewollt komplexe Fülle an Weltwissen, an Hintergrundwissen. Eine Künstliche Intelligenz hat aber an und für sich kein Weltwissen und kein Hintergrundwissen, sondern kennt nur die Daten, mit denen sie trainiert worden ist. Wir sind beeindruckt, überwältigt davon, welche gigantischen Datenmengen Künstliche Intelligenz in kurzen Zeitspannen zu prozessieren imstande ist. Aber das menschliche Gehirn tut das in Wahrheit auch: es verarbeitet durchschnittlich um die 11 Millionen Bits pro Sekunde. Die bewusste Wahrnehmung kann dabei nur Information im Umfang von zwischen 40 und 50 Bits pro Sekunde verarbeiten. Das heißt zum einen, dass unser Weltwissen viel umfangreicher und vor allem diverser ist als es uns scheint. Zum anderen ist die menschliche Intelligenz viel effektiver darin, aus geringer Datenlage korrekte Informationsgehalte abzuleiten. Das liegt zum einen darin, dass der Mensch Inhalte über Begriffe begreift, während eine Künstliche Intelligenz keine Begriffe bilden kann.

Der Mensch sucht Erscheinungen zu erfassen, indem er sie sich erklärt und sie sich als Ursache-Wirkungszusammenhänge begreiflich zu machen sucht. Er denkt kausal, während eine KI allein nach statistischen Korrelationen sucht, ohne sie kausal zu begründen. Der Mensch stellt in seiner Interpretation (so gut als möglich) fest, was angesichts einer bestimmten Datenlage der Fall ist, während eine KI nie wissen kann, was „der Fall“ ist: sie gibt in ihren Interpretationen nur an, was bei einer bestimmten Datenlage – im Hinblick auf die Daten, mit denen sie trainiert wurde – am wahrscheinlichsten der Fall ist. Und die Interpretation von Memen verlangt, dass man weiß, was bei ihnen der Fall ist und dass man sie sich erklären kann.

Bleibt eine KI immer humorlos?

Humor beruht auch darauf, dass er Inhalte involviert, die absurd oder unmöglich sind. Er spielt damit, dass etwas der Fall sei, was in Wirklichkeit nicht der Fall sein kann. Eine Künstliche Intelligenz weiß aber nicht, was möglich ist und was unmöglich. Humor beruht darauf, dass er etwas Richtiges und etwas Falsches einander gegenüberstellt oder scheinbar verwechselt – oder als gleichberechtigt anerkennt, obwohl die Humoristin genau weiß, dass das nicht so ist, dass das nicht der Fall ist. Künstliche Intelligenz könnte an diesen Komplexitäten fortwährend scheitern. Was Humor ist und warum wir etwas lustig finden, wissen wir zuletzt auch wir Menschen nicht erschöpfend. Lustig finden wir etwas, was – in vorher nicht angebbarer Weise – den Erwartungen oder den Regeln zuwider läuft, und was neu ist. Witze haben schnell einen Bart. Beides, das Unvorhersehbare, Divergente und das Neue, sind nicht eben die Domänen von Künstlicher Intelligenz. Künstliche Intelligenz bleibt vielleicht für immer humorlos.

Humor ist – sowohl beim Emittenten als auch beim Rezipienten – etwas höchst Subjektives, ja vielleicht sogar einer der höchsten Ausdrücke der menschlichen Subjektivität.
Humor ist etwas Facettenreiches und lebt von unerwarteten Anspielungen. Künstliche Intelligenz kann zwar darauf trainiert werden, Witze zu verstehen, jedoch in einer binären „Das ist lustig und das nicht“ – Weise, die diesem Facettenreichtum geradezu humorvoll ent-
gegengesetzt scheint.

Meme gegen die Singularität

Die technologische Singularität bezeichnet einen Zeitpunkt, an dem Maschinenintelligenz so intelligent wird, dass sie sich selbst auf fortwährend höherem Niveau reproduzieren kann; in ihrer Reproduktion und in ihrem Fortbestand daher nicht mehr auf den Menschen angewiesen ist – es sei denn als Zuarbeiter, wenn nicht Sklavenarbeiter. Was ab einem solchen Zeitpunkt passieren mag oder wie schnell der Mensch die Kontrolle verliert, kann nicht vorhergesagt werden: es handelt sich per Definition um eine völlig neuartige Erscheinung und Qualität (anzunehmenderweise wird sich aber auch eine solche Intelligenz nicht plötzlich exponentiell weiterentwickeln und uns ruckartig überwältigen, sondern graduell und mit der Zeit – mit der Möglichkeit, dass wir die Entwicklung übersehen und in immer größere Abhängigkeiten geraten, aus denen wir uns dann nicht mehr lösen können). Aufgrund der mystischen Qualitäten und des New Age-Charakters des Singularitätsparadigmas gibt es umgekehrt auch Singularitätsfanatiker, die ein solches Ereignis als etwas Messianisches, ab dem irgendetwas unglaublich Tolles passieren werde, herbeiwünschen.

Der Physiker und Bestsellerautor Michio Kaku bezeichnet diese Ausprägung dann als eine „Ersatzreligion für Menschen mit einem IQ von 140“. Dennoch – und das hält Ishaani Priyadarshini fest – ist die Singularität bzw. die Fragestellungen, die damit zusammenhängen, nichts, was ignoriert werden kann. In ihrer Arbeit geht es ja genau darum, mögliche Bereiche ausfindig zu machen, die von Künstlicher Intelligenz nicht kolonialisiert werden können.

Komplexität ist vielleicht tatsächlich etwas, was Künstlicher Intelligenz verschlossen bleibt. Sensible Bereiche lassen sich vor Künstlicher Intelligenz vielleicht schützen mit CAPTCHAs, in denen Meme interpretiert werden müssen. Da prallen Bot-Angriffe ab. Die Interpretation von Memen könnte ein ultimativer Turing-Test sein – demzufolge eine künstliche Intelligenz dann als menschengleich angesehen kann, wenn sie sich in diversen Testsituationen menschengleich zu verhalten scheint. Insgesamt bleibt die Thematik aber Forschungsgegenstand und Forschungsansatz. (RED)

Quelle: LOGISTIK express Ausgabe 2/2023

Translate »