Header

Macht uns künstliche Intelligenz besser?

Text

Dario Aeberli

Published

28.06.2022

Alter Mann sitzt vor einem Go-Spielbrett

Computer sind Menschen in vielem überlegen – in komplexen Brettspielen zum Beispiel. Das ist so gefährlich wie hilfreich. Was kann künstliche Intelligenz und was nicht? Wir fragen jemanden, der es wissen muss.

Was ist künstliche Intelligenz?
Sie beschreibt Computersysteme, die in der Lage sind, Aufgaben ­aus­zuführen, die normalerweise menschliche Intelligenz erfordern. Der Unterschied zu gewöhnlichen Computersystemen ist, dass künst­liche Intelligenz (KI) selbst lernt. Man versucht, einem Computer die Entscheidungsstrukturen des Menschen beizubringen. Computer können riesige Datenberge auswerten, aber nicht wie Menschen sinnvolle Ziele definieren. Mittels KI sollen diese Stärken kombiniert werden.

Wie entscheiden Computer wie Menschen?
Jemand muss einem Computerprogramm ein genau definiertes Ziel ­setzen, zum Beispiel: «Gewinne eine Partie in diesem Brettspiel.» Dann stellt die Person dem Programm alle verfügbaren Daten zu diesem Brettspiel zur Verfügung: Regeln, Spiel­züge, Taktiken. Der Computer lernt dann selbst, wie er das Spiel gewinnen kann. Spielt der Computer danach gegen einen Menschen, kann die KI wie bei einem Entscheidungsbaum mögliche Optionen durchspielen und die Strategie wählen, die am erfolgsversprechendsten ist.

Kann künstliche Intelligenz die menschliche schlagen?
Ja, und wie! 2017 gewann ein Programm von Google gegen den besten Go-Spieler der Welt, den 20-jährigen Ke Jie. Go ist ein Brettspiel aus China, das deutlich komplexer ist als Schach. Es zählt rund 46 Millionen aktive Spielerinnen und Spieler. Jie begann mit fünf Jahren, Go zu spielen, gewann mit zehn sein erstes nationales Turnier und wurde mit 18 die Nummer eins der Weltrangliste. Weil das Programm zahlreiche mögliche ­Optionen für sich durchspielen konnte, wählte es die gewinnbringende. Wie die KI zu diesem Schluss ­gekommen ist, lässt sich jedoch nicht nachverfolgen.

Kann die Menschheit jetzt einpacken?
Nein, noch kann KI dem Menschen nicht das Wasser reichen. Das Go-Programm kann nur eins: Go spielen. Es kennt keine Schachregeln und weiss nicht, wie man eine Mail schreibt. Es gibt zwar Versuche, allwissende KI herzustellen, aber das ist aktuell unmöglich. Die Go-KI benötigt ausserdem eine Menge Energie: Sie hat eine «Leistungsaufnahme» von etwa 170 Kilowatt. Ein menschliches Gehirn weist im Vergleich nur etwa 20 Watt auf.

Portrait Jan Bieser, GDI Senior Researcher

Bild: GDI Gottlieb Duttweiler Institute, Fotograf: Frank Brüderle

Jan Bieser (33) ist Senior Researcher und Speaker am Gottlieb-Duttweiler-Institut (GDI). In seiner Forschung untersucht er Chancen und Risiken der Digitalisierung für Mensch und Umwelt. Er nimmt an der vom GDI organisierten Konferenz «Discovery on Steroids: How AI will speed up Innovation» («Entdeckung auf Anabolika: Wie KI die Innovation ­beschleunigt») ab 5. Juli teil.

Schadet KI der Umwelt?
IT-Anwendungen verursachen schätzungsweise bereits drei bis vier Prozent des weltweiten CO2-Ausstosses. Allerdings könnte KI auch helfen, den Ausstoss in anderen Bereichen zu reduzieren. So wurde zum Beispiel eine KI damit beauftragt, die Kabine eines Flugzeugs leichter und trotzdem stabil zu designen. Die KI entwarf Wände, die im Innern Verstrebungen wie Skelette haben. So waren sie 40 Prozent leichter und 20 Prozent stabiler als die bisherigen Wände, wodurch die Flugzeuge weniger Treibstoff verbrauchen würden.

Was kann KI nicht?
Eine Menge. Sie kann sich keine  eigenen Ziele setzen, Ziele hinterfragen oder spontan auf unbekannte Hindernisse reagieren. Die KI ist nur so gut wie die Befehle und Daten, die sie zur Verfügung hat. Zum Beispiel kann ein Unternehmen, das viele ­Bewerbungen bekommt, mittels KI eine Vorselektion durchführen. Dazu werden der KI die Daten der in der Firmenhistorie bisher angestellten Mitarbeitenden zur Verfügung gestellt. Wenn die Firma jedoch bisher mehrheitlich Männer angestellt hat, führt das die KI einfach so weiter.

Wie kann man künstliche Intelligenz besser machen?
Indem man im oben genannten ­Firmenbeispiel das Geschlecht und verwandte Informationen wie Vor­namen aus dem Datensatz entfernt. Das führt jedoch zu einem Zielkonflikt: Eigentlich bräuchte KI so viele Daten wie möglich, aber damit sie ­keine diskriminierenden Muster von uns Menschen übernimmt, darf sie nicht alle verfügbaren Daten erhalten.

Wo kann KI gefährlich werden?
Zum Beispiel bei selbstfahrenden ­Autos, und zwar aufgrund des Unvermögens, spontan auf un­bekannte Hindernisse zu reagieren. Auf einem kontrollierten Testgelände erkennt die KI ihre Umgebung und hält sich an die Verkehrsregeln. Aber in Situationen, die die KI nie durchgespielt hat, weiss sie nicht zwingend, wie sie reagieren soll. Etwa, wenn ein Mensch unerwartet mit Stoppschild vor einer Baustelle auftaucht. In den USA mehren sich Berichte von Teslas, die im Autopilotmodus ­einen Crash verursacht haben. In der Schweiz ist dieser Modus deshalb noch nicht zugelassen. Dennoch ist davon auszugehen, dass Unfälle durch selbstfahrende Autos im Strassenverkehr in Zukunft abnehmen werden, da wir Menschen im Vergleich noch mehr Fehler machen.

Hier wird künstliche Intelligenz schon heute eingesetzt

  • Starmind: Das Schweizer Softwareunternehmen hat erkannt, dass das meiste Know-how in Betrieben nicht in Dokumenten, ­sondern in den Köpfen der ­Mitarbeitenden steckt. ­Mittels KI vernetzen sie Kunden mit der geeigneten Person im Unternehmen, die beim Problem weiterhelfen kann.
  • IBM Debater: Das Technologieunternehmen hat eine KI programmiert, die Debatten mit Menschen führen kann. Die Debatten kann man sich auf Youtube anschauen.
  • Ithaca: Diese KI hilft Historikerinnen und Historikern, unvollständige Texte zu ­verstehen. Wenn auf einer Tafel aus der Antike die Hälfte fehlt, kann Ithaca ­unter Rückgriff auf bisher gesammelte historische ­Daten berechnen, welches  die wahrscheinlichsten fehlenden Textbausteine sind, wie alt sie sind und woher die Tafel stammt. Auf ähn­liche Weise hat eine KI die unvollendete 10. Sinfonie Beethovens erweitert.
  • Berichterstattung: Seit 2019 setzt die Nachrichtenagentur Keystone-SDA für die Berichterstattung über Sport- oder Abstimmungsergebnisse eine KI namens Lena ein. Basierend auf Textbausteinen kann sie innert Kürze für alle ­Gemeinden eine individuelle Meldung erstellen.
  • Factchecking: Mitarbeitende von Plattformen wie Facebook kommen gegen die Flut an Posts nicht an. Deshalb haben sie KI entwickelt, die Texte, Bilder und Videos darauf prüfen, ob die Fakten darin stimmen.

Foto/Bühne: Hätte gegen KI wahrscheinlich keine Chance: einer der weltweit 46 Millionen aktiven Go-Spieler. Bild: Getty Images