26.10.2021 — Tobias Weilandt. Quelle: Verlag Dashöfer GmbH.
Nehmen wir mal folgendes kurzes Gespräch an: Sandra und Felix treffen sich und es entspinnt sich dieser Dialog:
Sandra: “Hallo Felix, hast Du heute Abend Lust, ins Kino zu gehen?” Felix: “Meine Eltern kommen zu Besuch.”
Sandra stellt eine geschlossene Frage, auf die normalerweise mit “Ja” oder “Nein” und vielleicht noch einer Begründung geantwortet wird. Felix antwortet zwar auf Sandras Frage, aber nicht direkt mit “Ja” oder “Nein”. Und dennoch versteht Sandra und verstehen wir, dass seine Antwort gleichbedeutend mit einer Verneinung ist. Felix hat heute eben keine Zeit, weil seine Eltern kommen. Eine KI versteht diese Antwort, also die Aussage von Felix allerdings nicht, zumindest nicht als ein “Nein”. Der Grund hierfür ist, dass KIs nicht an einem gemeinsamem Wissen teilhaben.
Unser “gemeinsamer kultureller Hintergrund”, wie er vom Philosophen John R. Searle und vom Psychologen, Michael Tomasello, definiert wird, umfasst bestimmte Kenntnisse und bestimmtes Wissen, das wir innerhalb von Kulturgemeinschaften anerkennen. Und aufgrund dieser Konventionen können wir Felix Antwort auf Sandras Frage als ein “Nein” identifizieren. Felix weiß, dass Sandra über folgendes Wissen verfügt:
Felix ist seinen Eltern gegenüber verpflichtet, sich um diese zu kümmern, insofern es keine andere Abmachung gibt. Es greifen die logischen Implikationen des sogenannten “Alibi-Prinzips”. Sandra fragt vielleicht nach einem Date, Felix weiß das und für diesen Fall greifen noch einmal andere Konventionen, wie bspw. dass man sich auf einem Date nicht den Nachtisch mit den Eltern teilt...
Es gibt in unserer Kulturgemeinschaft eine Konvention, die besagt: Wenn wir Besuch bekommen, von Menschen bspw. aus einer anderen Stadt, dann sind wir meistens gute Gastgeber*innen und kümmern uns um diesen Besuch. Und dieser Besuch hat gewissermaßen Vorrang vor anderen Menschen. Wenn ich also Besuch habe, dann lasse ich diesen in den meisten Fällen nicht irgendwo allein und gehe ins Kino oder mich mit Freund*innen betrinken, sondern unternehme etwas gemeinsam mit diesem Besuch. Das Szenario wird durch die Art des Besuches komplexer: Es kommen eben Felix’ Eltern. Nur wenn Felix’ Eltern Sandra kennen und mögen, ist es eine Option, zu viert ins Kino zugehen. Felix’ Antwort lässt aber darauf schließen, dass dies nicht der Fall ist. Es ist also diese Konvention, die hier gegen eine Verabredung zwischen Sandra, Felix und seinen Eltern spricht.
Die zweite Konvention: Der Philosoph Peter Janich definiert das “Alibi-Prinzip” durch folgende logische Implikationen:
Man kann zu verschiedenen Zeiten am selben Ort sein. Es ist aber nicht möglich, zur selben Zeit an verschiedenen Orten sein. So kann sich eine mutmaßliche Täterin damit freisprechen, dass sie nachweislich zum Tatzeitpunkt weit entfernt vom Tatort war. KIs und damit auch Siri, Alexa und Google Home kennen dieses “Alibi-Prinzip” nicht, weshalb sie die Aussage der Täterin nicht so verstehen würden, wie wir. Für das Szenario zwischen Sandra und Felix gilt, dass Felix nicht gleichzeitig mit Sandra ins Kino gehen und mit seinen Eltern in einem tollen Restaurant dinieren kann. Ein logischer Grund, warum Sandra wohl alleine ins Kino gehen muss.
Und zu guter Letzt: Sandra fragt vielleicht nach einem Date. Und dann ist es auf jeden Fall unüblich, seine Eltern mitzunehmen. Und je nach KI, würde die Frage “Hast Du heute Abend Lust ins Kino zu gehen” von ihr auch als allgemeine Frage verstanden werden, im Sinne von: “Hast Du grundsätzlich Lust, heute Abend ins Kino zu gehen?”
Wir und Sandra verstehen Felix’ Antwort als ein klares “Nein”, eben weil wir mit diesen drei Konventionen vertraut sind, die einen Teil eines “gemeinsamen kulturellen Hintergrunds” bilden. KIs und damit auch unsere Voice Assistants zu Hause verfügen nicht über diese Kenntnisse und dieses Wissen, weshalb sie ganz triviale Gespräche nicht verstehen, denn wir meinen oftmals mehr, als wir tatsächlich sagen.
Bild: teamuglywolves (Pixabay, Pixabay License)