Home » Technik und Wirtschaft » Robotik » Ist es eigentlich intelligent, Künstliche Intelligenz zu erschaffen?
Robotik

Ist es eigentlich intelligent, Künstliche Intelligenz zu erschaffen?

Ist es eigentlich intelligent, Künstliche Intelligenz zu erschaffen?
Ist es eigentlich intelligent, Künstliche Intelligenz zu erschaffen?
Es ist ein alter Menschheitstraum, künstliche Kreaturen mit bestimmten Fähigkeiten zu erschaffen.Foto: Phonlamai Photo/Shutterstock

Der Wirtschaftsinformatiker und Buchautor Oliver Bendel über künstliche Kreaturen und moralische Maschinen.

avatar

Oliver Bendel

Informations- und Maschinenethiker

Herr Bendel, in fast jedem Science-Fiction-Klassiker spielt irgendeine Form Künstlicher Intelligenz eine große Rolle. Woher kommt diese Faszination?

Es ist ein alter Menschheitstraum, künstliche Kreaturen mit bestimmten Fähigkeiten zu erschaffen. Man denke an Talos und Pandora von Hephaistos oder an Galatea von Pygmalion, an den Golem, an Frankensteins Monster und an Pinocchio. Der ist ziemlich intelligent. Das kann man von den anderen genannten künstlichen Wesen nicht unbedingt behaupten. Die eingeschränkte Denk- und Sprachfähigkeit sollte den Unterschied zum Menschen deutlich machen. Wir haben in der Ideengeschichte also die ganze Spannbreite an Künstlicher Intelligenz.

Je mehr möglich ist, umso weniger ist unmöglich – Künstliche Intelligenz ist nicht zuletzt ein philosophisches Thema, das extrem polarisiert. Wie sehen Sie diese Diskussion als jemand, der besser weiß, was (technisch) möglich ist?

Wir haben heute ganz andere Möglichkeiten in der Disziplin der Künstlichen Intelligenz als vor 20, 30 Jahren. Das liegt an vielen Faktoren, an der Menge von Daten, die man nutzen kann, an der Leistungsfähigkeit von Technologien, an der Vernetzung von Systemen, an genetischen Algorithmen und neuronalen Netzen. Und an neuen Zielen. Ich selbst forsche im Bereich der Maschinenethik. Wir entwickeln sogenannte moralische Maschinen. Dabei arbeiten wir eng mit KI und Robotik zusammen. Die klassische KI fokussiert eben auf die Denk- und Sprachfähigkeit. Die Moralfähigkeit, die eng mit dieser zusammenhängt, hat sie bisher
kaum beachtet.

Streitpunkt ist meist die Verselbstständigung von KI. Das Horrorszenario: Eine superintelligente Maschine entscheidet irgendwann, dass es „ohne Menschen besser ist“ – mit mehr oder weniger apokalyptischen Folgen. Können Sie als Experte diese Möglichkeit ausschließen?

Auch das ist ein altes Motiv. Wir kennen es nicht zuletzt aus einer Ballade von Goethe. Der Zauberlehrling wendet auf einen Besen einen Zauberspruch an und verwandelt diesen in einen Knecht. Der hört schon bald nicht mehr auf seinen Herrn und Meister und tut, was er will: „Ein verruchter Besen, / Der nicht hören will! / Stock, der du gewesen, / Steh doch wieder still!“ Schon heute sind die Aktivitäten und Resultate einiger KI-Systeme nicht mehr überschaubar, voraussehbar und voraussagbar. Das bedeutet aber nicht, dass diese die Weltherrschaft ergreifen. Warum sollten sie das tun? Und warum sollte der Mensch keine Mittel dagegen haben?

Am anderen Ende der Skala halten Forscher und Philosophen diese Horrorszenarien für prinzipiell unmöglich – weil wir noch gar nicht verstehen würden, was Intelligenz eigentlich ist.

Es gibt ganz verständliche Definitionen der menschlichen und maschinellen oder Künstlichen Intelligenz. Die menschliche Intelligenz hängt stark mit dem Begriffsvermögen im mehrfachen Sinne zusammen. Wir unterscheiden die schwache und starke KI. Ganz vereinfacht: Die eine simuliert die menschliche Intelligenz, die andere intendiert sie, versucht sie also zu erreichen oder sogar zu übertreffen. In bestimmten Aspekten kann die Künstliche Intelligenz die menschliche tatsächlich übertreffen, aber schwerlich in der ganzen Komplexität.

Anders gefragt: Auf welcher Seite stehen Sie? „Strenge Gesetze, am besten sofort!“? Oder „Entspannung, das Ganze ist ein Missverständnis!“?

Weder noch. Man sollte die KI-Systeme unterscheiden und auch die Anwendungsgebiete. Ich bin gegen vorschnelle Regulierung. Die Wissenschaft sollte sich erst einmal austoben dürfen, außer wenn Tiere oder Menschen dabei unmittelbar zu Schaden kommen; deshalb bin ich gegen Tier- und Menschenversuche. Dass sie zukünftig zu Schaden kommen könnten, muss am Einzelfall aufgezeigt werden. Für diesen mag es am Ende ein Verbot geben. Aber nicht für einen ganzen Wissenschaftszweig, der gerade aufs Schönste wächst und gedeiht. Die Gefahr ist nicht, dass KI-Systeme die Weltherrschaft übernehmen, sondern dass sie Menschen beobachten, belauschen, bewerten, ausliefern oder
ausschließen.

Vom Philosophischen zum Praktischen: Welche Formen der KI sind denn heute schon „marktreif“ – und sinnvoll?

Marktreif sind viele KI-Anwendungen, solche, die große Mengen an Texten und Dokumenten bewältigen wie IBM Watson, Übersetzungssysteme wie DeepL Translator oder natürlichsprachliche Systeme wie Cleverbot und Replika. Man sieht auch hier, dass Intelligenz und Begriffsvermögen zusammenhängen. Natürlich gibt es auch beeindruckende KI-Systeme, die sich auf die Bildwelt beziehen und die beispielsweise Gesichtserkennung beherrschen. Wenn Gesichts- und Sprach- beziehungsweise Stimmerkennung zusammentreffen, kann man Menschen in einer Weise einteilen und beurteilen, die ihnen gefährlich werden mag. Dabei müssen aber gewisse Absichten von Menschen vorhanden sein. Die KI-Systeme sind ihr willfähriges Werkzeug. Welche Formen der KI sinnvoll sind, darüber kann man streiten.

Wo fängt Künstliche Intelligenz eigentlich an? Viele Menschen haben schon bei der Nutzung individualisierter Websites (Amazon, Facebook) ein diffus ungutes Gefühl. Ist ein Algorithmus schon intelligent?

Es kommt auf den Algorithmus an. Wenn ich den Eindruck habe, dass er mir etwas liefert, was mir ansonsten nur ein Mensch liefern kann, sind wir mit einiger Wahrscheinlichkeit im Bereich der schwachen KI.

Nächster Artikel