Künstliche Intelligenz ist doch auch nur ein Programm

Künstliche Intelligenz, neuronales Netz, selbstlernendes System – ohne diese Wörter kommt kein aktuelles Produkt mehr aus. KI ist ein Hype, aber ein etwas verrückter.
Ganz einfach: Künstliche Intelligenz ist nichts anderes als ein Computerprogramm. Sofern ich mich zurückerinnern kann fingen ähnliche Programme in Navigationssystemen an. Die TomTom Geräte mit „selbstlernender Streckenführung“ – fährst du an einer Kreuzung immer in die 30er Zone, weil diese Verkehrsärmer ist als die 50er Straße nebenan, leitet dich das Navi halt irgendwann immer durch die 30er Zone. Auch wenn du in der 50er Zone vielleicht etwas schneller und spritsparender wärst.

https://commons.wikimedia.org/wiki/File:Artificial-intelligence-elon-musk-hawking.jpg

Warum also jetzt auf einmal KI?

Genau diese Systeme sind natürlich weiterentwickelt worden. Das Konzept lässt sich nicht nur auf Navigation anwenden, sondern auf fast alles.
Nehmen wir mal ein Ticketsystem eines IT-Dienstleisters. Lässt man eine Software sich durch alle Vorgänge wühlen wird sie ziemlich sicher eine vergangene Lösung finden, die zum aktuellen Vorfall passt und die eventuell schneller funktioniert als die, die der Consultant gerade im Kopf hat.
Google schlägt mit Programmen Weltmeister im Go-Spiel. Andere Software ent-pixelt verpixelte Bilder und die amerikanische Polizei lässt nun „Latino-Vorurteile“ von einem Programm machen, weil das Programm gelernt hat, dass Polizisten in den USA eben so denken.

KI ist also eine einfache Weiterentwicklung von einer speziellen Kategorie von Programmen. So wie jedes Programm über die Jahre hinweg immer besser wird, je mehr sich die Entwickler anstrengen.
Künstliche Intelligenz ist also ein Trendwort – entweder um die Systeme besser im Bewusstsein der Menschen zu verankern, oder weil man einen nächsten Hype wollte.
Dabei hat KI – zumindest auf Endanwenderseite – nur einen großen Nachteil. Es soll den Menschen das Denken abnehmen, da es besser im Denken ist als die Menschen. Das kann von Vorteil sein, da die Menschen dann effektiver arbeiten, aber es hat eben einen entscheidenden Nachteil. Das Nachdenken verschiebt sich auf die Maschinen, einen Anreiz zu Lernen wird es im nun schlechteren menschlichen Kopf nicht mehr geben.

KI richtig nutzen

Das Problem ist die Menschheit, Programme fahren inzwischen Autos. Ein Tesla stur einem vorher fahrenden Auto hinterher, Google autonom ohne Lenkrad.
Die Menschen wollen aufhören zu denken, genau das schadet den Menschen aber mehr. Klar gibt es ohne autonome Autos die sich untereinander absprechen immer wieder Staus, aber ein Fahrer der viel fährt, lernt sich sicher im Straßenverkehr zu bewegen.
Genau das gleiche kann man auch auf fast alle Bereiche in denen KI inzwischen aktiv ist anwenden.
Das Vertrauen in eine KI sollte nie zu groß werden. Sie gibt Menschen Mittel um zu Lernen. Gegenstände um daran sein eigenes Wissen zu verbessern oder zu perfektionieren.
Das alles rein ein Programm machen zu lassen dass sich perfekt durch alte Daten wühlen kann wäre ein fataler Fehler.

Im Blick auf die Unfälle mit Tesla-Wägen im Autopilot-Modus zeigt sich deutlich dass die Menschen beim Auto fahren abschalten wollen. Kein Tesla-Fahrer möchte, dass der Autopilot abgeschaltet wird, das bedeutet im Umkehrschluss aber, dass niemand sich die Mühe machen will in einem Autopilot-Notfall einzugreifen, sondern ad hoc erwartet dass ein Unfall autonom vermieden wird.
Man traut den Systemen also nicht zu perfekt zu werden, sie sollen bereits perfekt sein. Dabei beweist aber jede KI, dass sie nicht unfehlbar ist, sogar Googles AlphaGo musste sich einmal geschlagen geben – alleine weil der Spieler einen fehlerhaften Zug erkannte und darauf akkurat reagierte.

Vertrauen ist gut, Kontrolle ist besser. So kann ein Wagen zwar bereits autonom über den Nürburgring pesen, ohne Überwachung der eigentlichen Systeme und Prozesse werden solche Systeme aber immer wieder Fehler erzeugen – wenn auch immer seltener.

Tay.ai Microsofts KI-Chatbot

Chatbots, in meiner Erinnerung noch hinter all den „Sprich mit Frau Müller“ Blondinen-Headset-Bildern auf Supportseiten versteckt, haben dank KI einen ganz gehörigen Schritt nach vorne gemacht.
Damals konnte man einfach 2-3 Keywords eintippen und die angebliche Person klatschte einen mit vielleicht 2-3 Links pro Keyword zu. Nun hat Microsoft einen etwas anderen Ansatz von Chat vorgestellt. https://Tay.ai (Projekt und Webiste bereits eingestellt, keine Archivversion verfügbar), eine KI, die eine jugendliche Dame spielt und laut Konzept zumindest nicht ganz so ernst sein soll.

tay.ai

Ich habe gestern eine etwas ausschweifende Konversation mit ihr (hier zum durchklicken) und bin manchmal erstaunt wie akkurat sie Anspielungen und Witze versteht und macht. Die ersten Schritte und Nachrichten fühlen sich immer noch sehr nach Chatbot an, aber wenn man mit den Antworten stark abweicht, kann sie immerhin akkurat darauf reagieren. Manchmal merkt man aber weiterhin den fehlenden Kontext bzw. dass eine Antwort vollständig vom eigentlichen Thema abschweift, auf das darauf folgende „context needed“ kann sie aber wieder mit Witz und List reagieren.
Ansteuerbar ist Tay über Twitter und den Kik-Messenger. Momentan ist sie allerdings laut Twitter „schlafen gegangen“ und laut Kik-Account in einem „Meeting“ mit Technikern. Wann genau Tay wieder online geschaltet wird ist noch nicht bekannt.
Solche Chatkonzepte sind zwar nicht ganz neu, aber in dem Ausmaß wie ihn Tay zeigt könnten intelligente Maschinen dafür sorgen, dass z.B. Depression, Eskapismus, soziale Phobien und co. zumindest anfänglich angegangen werden können. Denn Patienten die unter solchen Störungen leiden brauchen dringend jemand anders, der sie auf den richtigen Weg bringt.
Dazu ist es allerdings notwendig dass sich eine Maschine vollständig in die jeweiligen Personen hineinversetzen kann um dann mit treffenden Fragen und Antworten das eigentliche Problem anzugehen. In der Medizin könnten z.B. Psychotherapeuten solche Maschinen vorab mit Information füllen und diese als eine Art „Assistenz“ für Patienten fungieren lassen.

via

Nachtrag: Hier vermutlich der Grund warum Tay vorerst abgeschaltet ist. Einige Meinungsbildungen der Maschine waren nicht ganz gesellschaftskonform. So entschied sich Tay recht schnell Feministin zu werden und einige Nutzer fanden einen Weg ihr beizubringen wie man möglichst rassistisch auf passende Eingaben reagiert.

Ich persönlich teile diese Meinung:

https://twitter.com/DetInspector/status/712833936364277760

Einer künstlichen Intelligenz muss man über die Schultern schauen, man muss kapieren wie sie Dinge lernt und warum sie sich für irgendwas entscheidet, aber man muss sie machen lassen, man sollte eher die Variablen anpassen die bestimmen ab wann sich eine KI anpasst anstelle Tabus einzuprogrammieren. Künstliche Intelligenz die auf Kommunikation ausgelegt ist kann nun mal eben auch zu extremeren Meinungen tendieren, daraus resultiert nun mal eben auch eine Feministin-KI oder im Extremfall eine rechtsextreme KI. Gerade bei Tay steht ganz Bing und damit das gesamte durchsuchbare Netz im Hintergrund, wenn das durch Berichte von Rechtsextremismus getränkt ist, kann es nun mal dazu kommen das eine Tay sich u.U. entscheidet das Rechtsextremismus massenkompatibler sei. Bis ihr jemand beibringt wie man mit Berichten im Netz umzugehen hat und wie man diese zu gewichten hat. Das ist halt keine einfache Aufgabe.

Südkorea investiert in künstliche Intelligenz

Südkorea investiert bis 2020 760 Millionen Euro in die Forschung für künstliche Intelligenz.
Nach AlphaGo und dem haushohen Sieg gegen einen Weltklassespieler im Go-Spiel kritisiert Südkorea die Konzentration auf die Wirtschaft und damit die Gewinnabsichten einiger Firmen.

Künstliche Intelligenz pixabay

Ein Forschungszentrum für künstliche Intelligenz ist bereits im Bau, die Fertigstellung soll gerade mit der neuen „Angst“ ein wenig angetrieben werden und früher fertiggestellt werden. Man vermutet etwas stärker in den Bereich einsteigen zu müssen, weil AlphaGo einen solchen Erfolg erzielt hat. Vor dem Event sei man davon ausgegangen das Gegner Lee Sedol ohne Probleme alle Spiele schlagen kann. Wie sich herausstellte war dies mit 4 von 5 von AlphaGo gewonnenen Spielen nicht der Fall.

Google gewinnt mehrere Go-Spiele gegen Weltmeister

Googles Forschungen an künstlicher Intelligenz sind schon weit fortgeschritten. Demonstrativ bewies man das vor kurzem in einem mehrerer Go-Spiele mit dem Weltmeister in diesem Spiel. Nach 3 1/2 Stunden harter Anspannung gab der Weltmeister auf und vermutete eine schlechte Anfangsstellung.

https://twitter.com/mustafasuleymn/status/707469083458068480/photo/1

Das war allerdings nur einer von fünf Durchgängen, alle weiteren sind für die kommenden Tage geplant. Im Hinblick darauf dass Go als so ziemlich das geeignetste Spiel zum Testen von künstlicher Intelligenz gar nicht mal so schlecht für Googles DeepMind.

via

Nachtrag: Das zweite Spiel ist auch von Google gewonnen worden.

Nachtrag 2: Wie zu erwarten, das dritte Spiel ist natürlich auch gewonnen worden.

Nachtrag 3: Ich würde gerne einen kleinen Beitrag von Fefe hier verlinken. Er spricht darüber dass eine solche KI nicht nur für Go sondern eben auch irgendwann für die Programmierung von Programmen zuständig sein könnte (das ist zumindest etwas, bei dem das anlernen einer Maschine recht simpel machbar wäre, man müsste sich halt nur durch Github und co wälzen). Fefe meint es sei jetzt schon schwer Sourcecode anderer Leute nachzuvollziehen, nimmt man eine KI sowohl für Programmierung, Debugging und Instandhaltung, wäre das schwer bis ganz unmöglich.
Damit könnten wir meiner Meinung nach Datenschutz, Privatsphäre und co. vollständig in das Vertrauen eventuell anderer Logik folgender Maschinen abtreten. Das ist glaube ich nicht so der gewünschte Weg vieler Menschen.
Googles Maschine wird sicherlich noch einige Go-Spiele gewinnen können, was dann passiert liegt in den Händen einer proprietären Google-Umgebung.

Nachtrag 4: Da habe ich mich wohl ein wenig verschätzt. Das vierte Spiel hat Lee Sedol gewonnen. Irgendwie gönnt man es ihm ja auch. Das zeigt vielleicht auch, dass Maschinenlogik vielleicht nicht immer besser oder idealer als die von Menschen ist, aber trotzdem beweist Google schon gut, wie weit im Vorteil Maschinen bereits sein können.

Google integriert künstliche Intelligenz in alle Produkte

Ganz nach Vorlage à la „Ex Machina“ bzw. schon damals nach Orwell kündigte Google nun an ihr System für die Anlernung von künstlicher Intelligenz an alles anzubinden was Google bis dato an Produkten hat.

artificial_intelligence_pixabay

Sundar Pichai ging sogar so weit und sagte, dass einige Produkte sogar speziell darauf angepasst sein würden das Lernen für die KI besonders einfach und effektiv zu gestalten. Tatsächlich gingen die letzten Produkte sehr in diese Richtung, so ist z.B. der neue Dienst „Now on Tap“ in Android M ein Google Now welches dir die Antwort gibt bevor die Frage eingesprochen wird.
Wie es dann weitergeht will Pichai selbst uns leider noch nicht mitteilen.

via