Home      Webmaster      

 

Künstliche Intelligenz - Artificial Intelligence (AI)

Autor: Philipp Schaumann - Letzte Aktualisierungen Mai 2014

Verwandte Themen an anderer Stelle meiner Website:

Aktuelle Entwicklungen bei Robotern, inkl. ethische Aspekte, die 3 Roboter-Gesetze von Asimov

Short History of Computing, AI and Robotics

Das Problem der schwindenden (bezahlten) Arbeit durch Computer und Roboter

 

Der Turing Test

Bereits um 1950 herum hat der englische Mathematiker und Computer-Theoretiker Allan Turing einen Test konzipiert, mit dem er meinte, entscheiden zu können, ob er einer Maschine künstliche Intelligenz zuschreiben kann. Sein Test geht von einem Dialog eines Menschen mit einem Partner aus, den er nicht sehen kann. Wenn der Mensch nicht entscheiden kann, ob der Dialogpartner ein Mensch oder ein Computer ist, dann wäre Turing bereit gewesen, dem Computer Intelligenz zuzugestehen. Dies war über jahrzehnte der heilige Gral der Wissenschafter, die sich mit der sog. Artificial Intelligence (AI) beschäftigt haben. Davon sind wir heute immer noch meilenweit entfernt, wenn auch Computer heute bereits einige Aufgaben lösen, von denen viele früher glaubte, nur Menschen könnten dies, so z.B. gegen einen Großmeister Schach spielen und dabei sogar manchmal zu gewinnen. (die ganze Problematik, was als Artificial Intelligenz gelten soll, findet sich im obigen Link zur Wikipedia.

Denn das Ziel, dass eine Maschine Denkaufgaben erzielt die früher nur Menschen vorbehalten waren, ist ja auf vielen Teilgebieten erreicht, nicht nur beim oben erwähnten Schach, sondern z.B. auch dort, wo Computer mathematische Beweise erstellen, bei sog. Decision Support Systemen, die z.B. die sich täglich ändernde Preisgestaltung bei Billigflügen optimieren, aber auch bei Systemen, die unsere Privatsphäre bedrohen, weil sie einzelne Personen auf Fernsehkameras identifizieren können.

Wie weit wir jedoch davon entfernt sind, einen menschlichen Dialog sicher zu immitieren, das zeigt die leicht kuriose Geschichte um den Loebner Prize. Loebner hat 1989 100.000 $ für das Programm (Chatbot) gestiftet, das von einem Menschen nicht mehr zu unterscheiden ist, d.h. für ein Programm, das den Turing Test besteht. Das hat zwar bisher noch kein Programm geschafft, aber jedes Jahr wird auch ein Trostpreis für das Programm vergeben, das am nächsten an das Ziel herankommt. Dies hat mehrmals ein Programm auf der Grundlage von A.L.I.C.E. gewonnen (siehe weiter unten).

Eine Verfeinerung des Turing Tests weg von der Analyse der Sprache zu einer Analyse der Empathie spielt im sehr empfehlenswerten Buch von Philip K. Dick "Träumen Androiden von elektrischen Schafen?" ein große Rolle.

Es geht im Buch darum, dass Kopfgeldjäger auf der Suche nach Robotern sind, die aber von "richtigen" Menschen höchstens durch einen Mangel an Empathie erkannt werden könnnen. Dafür wird der "Voigt-Kampff-Test" verwendet. Er ist aber letztendlich ebenso problematisch (weil schwierig) wie der Turing Test auch.

Das Buch war übrigens die Vorlage für den Film "Blade Runner". Der Artikel in der Wikipedia verweist auf die wichtigen Fragen rund um AI die im Film und Buch angerissen werden.

In den ersten Jahren wurde dieser Wettbewerb von den AI-Spezialisten positiv aufgenommen, aber nach der Blamage der vorgestellten Programme in den ersten Jahren des Wettbewerbs entwickelte sich eine solide Animosität zwischen AI-Wissenschaftlern und Herrn Loebner, Vermutlich, weil das selbst gesteckte Ziel (bzw. eines der selbst gesteckten Ziele, das in der Öffentlichkeit mit viel Interesse aufgenommen wurde und Thema vieler Filme und Bücher ist) so eklatant verfehlt wurde. Aber das ist andererseits in der Technik keine Seltenheit. Der Kernphysiker Niels Bohr sagte einmal dazu “Prediction is very difficult, especially about the future.”

Auf meiner anderen Website habe ich mehr zum Thema, warum Algorithemen gefährlich sein können: "Die letzte Generation vor der Singularität".

Herbst 2006:
die BBC berichtet über den diesjährigen (und letztjährigen) Gewinner des Loebner Preises. Die Basis auf der die britische Firma Icogno arbeitet scheint nicht A.L.I.C.E. zu sein, sondern ein Programm, das durch das Chatten mit realen Personen ständig seinen Horizont erweitert. Der Artikel linkt auf Videos der Interaktionen.

Juli 2010:
Die NY Times und der Spiegel berichten über eine neue Herausforderung beim intelligenten Kampf Computer gegen Mensch: Jeopardy. IBM hat ein Programm dafür entwickelt: Watson (Supercomputer soll Jeopardy gewinnen). Die Herausforderung dieses Spiels, im Vergleich zu Schach, ist, dass es hier um Allgemeinwissen geht und die Fragestellungen zumeist in der Form von Wortspielen gegeben werden. Die Antwort muss in wenigen Sekunden erfolgen und der Spieler muss entscheiden, ob er sich wirklich sicher ist, denn eine falsche Antwort wird stark "bestraft". Dies ist viel komplexer als das, was die Suchmaschinen heute in Bezug auf das "Wissen der Welt" liefern: Dort reicht es, auf eine Seite zu verweisen, auf der (vermutlich) irgendwo die Antwort zu finden ist. Bei Jeopardy muss die Antwort selbst gefunden werden (in diesem Fall in Form einer Frage wie "was ist xxxx?"), das eine Wort, um das es geht.

Dez. 2015:
Es tut sich viel auf dem Gebiet AI, sogar in Richtung Turing Tests. Alle großen Firmen im Silicon Valley haben jetzt AI-Abteilungen. Facebook schlägt eine neue Form des Tests vor. Dabei geht es nicht um ein Gespräch, sondern der Rechner muss Fragen zu einem Text (oder sogar zu einem Video) beantworten. Dies ist ein sinnvollerer Test als von einem Computer zu verlangen, er solle so geschickt lügen, dass wir Menschen dies nicht merken. Der Artikel gibt Beispiele für solche Tests.

 

 

Nach oben

 

Zur Geschichte der AI: Eliza

[ Hier eine kurze Zusammenfassung der Geschichte von Artificial Intelligence]

Eliza is probably the best known Artificial Intelligence program in the world. It is also one of the oldest. Created in the early 1960's by MIT scientist Joseph Weizenbaum and named after Eliza Doolittle, its mission was to attempt to replicate the conversation between a psychoanalyst and a patient. (Quelle: Simon Laven, dort gibt es auch eine Version zum Runterladen und ganz viele Links zu den sog. Chatterbots)

Eliza works by turning everything you say around. For example:

If you type in: I am having a very bad day
She may reply: did you come to me because you were having a very bad day?

or

If you type in: I have come to talk to you.
She may reply: oh, you have come to talk to me ?

By doing this Eliza is able to talk you into giving her your deepest feelings. She does not remember it and keeps no recollection of anything you say, but sociologist Sherry Turkle noted that people actually became protective of their relationship with her, mainly because everything you say becomes a personal question.

This can lead to a very interesting conversation that makes her seem so friendly and understanding. However this does have some pitfalls:

If you type in: I am doing fine thank you.
She may reply: how long have you been doing fine thank i?

So every now and again Eliza displays a severe lack of understanding. Which does not seem too bad as you can soon learn your way around this problem. However, once Eliza has repeated a modified version of your sentence for the fifth time in a row you do begin to have doubts about her capability.

Klick führt zu yello

Hier eine neuere Implementierung von Eliza. Der Dialog ist natürlich für die heutigen Verhältnisse archaisch einfach (vergleiche mit dem Programm von Yellostrom, zu erreichen über Klick auf die Graphik rechts). Und hier eine andere Implementierung von Eliza.

 

 

Nach oben

A.L.I.C.E.

Der zweimalige Gewinner des Loebner Preises (siehe oben) Dr. Richard Wallace ist der Gründer der ALICE Foundation. (Gewinner im Sinne von "am nächsten am Ziel, aber immer noch weit weg").

Die Chatbots die Richard Wallace entwickelt hat beruhen auf der Sprache AIML, oder Artificial Intelligence Mark-up Language. Mit Hilfe dieser sehr einfachen Programmiersprachen und einem kostenlos verfügbaren Programm das diese Sprache interpretiert kann jeder sehr einfach einen Chatbot herstellen. Dies ist ein recht umstrittener Zugang, denn die wirklichen AI-Experten gehen viel komplizierte Wege und versuchen, die Vorgänge im menschlichen Gehirn, so weit diese bisher verstanden sind abzubilden. Dazu bilden sie komplexe Modelle der Umgebung, über die der Chatbot sich auskennen soll. In AIML werden diese Zusammenhänge viel einfacherer dargestellt. Die Ergebnisse sprechen derzeit dafür, dass der komplexe Zugang der AI-Experten sich von der Ergebnissen her nicht unbedingt bewährt hat. Anders ist dies evt. bei den Maschinenenübersetzungen, wo vermutlich ein besseres Verständnis des jeweiligen Kontexts gefordert ist.

 

 

userfriendly.org

Nach oben

Virtual Girlfriend

Die Karrikatur von der wunderbaren website userfriendly.org beschreibt eine Geschäftsidee, die ich vor Jahren mit einigen Freunden diskutiert hatte, jetzt aber von jemand anders aktiv umgesetzt wurde: "virtual girlfriend". (Und hier noch gleich noch ein solcher Dienst: v-girl.com (mit recht gut gemachten Videos der virtuellen Freundinnen, einschließlich einer, die sich wohl öfter mal während des Dates aus dem Staub macht - siehe weiter unten "zickig" ;-) )

Dabei hatten wir die Idee, dass wir eine Website einrichten, an die Männer gegen eine recht geringe Gebühr E-Mails senden können, die dann von einem AI-Programm automatisch beantwortet würden. Dabei kann der Kunde gewissen Persönlichkeitseigenschaften seiner "Freundin" vorwählen, z.B. wie sehr sie in ihn verliebt ist, wie romantisch die Dialoge sein sollen, ob sie "zickig" ist und wie explizit die E-Mails werden sollen, wenn es um Sex geht.

Letztendlich haben wir es nicht implementiert, es hätte erfordert, dass wir einen AI-Spezialisten anheuern, der ein Programm entwickelt, das aus den eingehenden E-Mails den Kontext herausliest und dann entsprechend auf dieses E-Mail so antwortet, dass daraus mehr als eine Folge von vorformulierten Antwort-Konserven wird. Ich weiß nicht, ob es solche oder ähnliche Dienste bereits gibt, aber die Karrikatur beschreibt einen solchen Dienst auf der Basis eines Chatbots.

Eine durchaus interessante Frage sind die ethischen Aspekte. Wie würden wir antworten, wenn uns in einer Talkshow vorgeworfen würde, dieser "Dienst" wäre "menschenverachtend"? Ich frage mich an der Stelle, was denn der ethische Unterschied zu Telephon-Hotlines ist? Oder was ist der Unterschied zum Verkauf von Sex-Puppen oder zu Prostitution?

Um es ganz klar zu sagen: Natürlich fände ich es besser, wenn alle Menschen romantische Liebe und erfüllenden Sex mit einem anderen Menschen erleben könnten, aber leider scheint das (derzeit?) nicht für alle Menschen möglich zu sein.

userfriendly.org

Alle diese Geschäfte ("virtual girlfriend", Telefonsex-Hotlines, Sex-Puppen) sind für mich letztendlich ähnlich einzustufen, in allen Fällen sollten die Männer realisieren, dass da nicht wirklich eine Frau ist, die mit ihnen eine romantische Beziehung oder Sex haben möchte. Zum Unterschied zu den Telephon-Hotlines kann dieser Service, da voll-automatisiert, erheblich günstiger angeboten werden, d.h. er führt nicht zu einem finanziellen Ruin des Kunden.

Ob ein solcher Service auch für Frauen Erfolg haben könnte, ist eine weitere interessante Spekulation. Vermutlich müssten die Texte anders gestaltet sein, aber evt würde auch dies funktionieren. Es wird ja nur eine sehr kleine Zielgruppe angesprochen, die sich durchaus finden könnte, ebenso wie bei den Männern. Trotzdem könnte der Markt ausreichend sein (die Zeitschrift wired berichtete bereits 2000 von guten kommerziellen Erfolgen in Japan). Letztendlich könnten dies für die weibliche Zielgruppe sehr persönlich gehaltene romantische "Arzt"romane sein, die es ja heute auch von zart-romantisch bis paprika-heiß gibt. Auch hier werden hohe Verkaufszahlen berichtet.

Gerade entdeckt: Es gibt bereits seit den späten 80-iger Jahren ein Softwareprogramm Virtual Woman, das einen ähnlichen Ansatz verfolgt.

 

 

Nach oben

 

Bots auf der Jagd nach Pädophilen

Wie der Standard in Österreich und original der New Scientist berichteten, ist seit Anfang 2004 ein Computerprogramm in den englischen Chatrooms für Kinder und Jugendliche auf der Suche nach Pädophilen, die in diesen Chatrooms wohl ihre Opfer suchen. Der New Scientist druckt auch einen Beispieldialog ab. Wer will, kann ja mal versuchen, herauszufinden, wer von den beiden der Computer ist.

Wie Leserbriefschreiber im Standard korrekt aufzeigen, wird es wohl (außer den Pädophilen) nur wenige geben, die diese Idee nicht gut finden. Das gleiche Programm könnte aber auch leicht modifiziert auf die Suche nach anderen "abweichenden" Meinungen gehen, z.B. zuerst könnte es Rassisten jagen, dann Globalisierungsgegner und irgendwann dann einfach nur Gewerkschaftler. Das ist eine neue Technologie, die kaum wieder in die Flasche zurück zu bekommen ist. Öffentliche Chatrooms sind nun auch nicht mehr ohne Kontrollen.

 

 

Nach oben

 

Turing Tests im Einsatz - die Captcha-Technologie

Für mich ganz überraschend hat sich allerdings in den letzten Jahren eine wirkliche kommerzielle Anwendung für einen Turing Test ergeben und der sieht ganz anders aus. Es geht darum, dass ein Computer entscheiden muss, ob der Dialogpartner ein Mensch ist oder ein anderer Computer. Hintergrund ist u.a. die Spamwelle. Die Spammer erzeugen sich automatisch kostenlose Mail-Accounts, um diese für ihre unerwünschten Aktivitäten zu nutzen, bis der Anbieter ihnen auf die Schliche kommt und den Account wieder sperrt. Die Anbieter, hotmail, yahoo und andere, setzen daher jetzt Turing Tests ein, d.h. sie stellen den Dialogpartnern Aufgaben, die nur ein Mensch lösen kann.

Und eine Aktualisierung vom Juni 2007 in der NY Times berichtet, dass der Wettlauf zwischen den AI-Forschern, die trotz der Schwierigkeiten besser und besser darin werden, die Texte trotz Verzerrungen und Hintergrundrauschen zu entziffern, mittlerweile dazu geführt hat, dass selbst Menschen ohne Behinderungen (wie z.B. Farbenblindheit) oft Schwierigkeiten haben, diese Aufgaben zu lösen. Es entwickelt sich ein Wettlauf und ein Katz-und-Maus-Spiel zwischen den Captcha-Entwicklern und den Captcha-Knackern.

Okt. 2007:
Und wie genial dann wiederum Captchas ausgehebelt werden können, das zeigt dieser Artikel, wo als Belohnung für die menschlichen Captcha-Knacker nackte Haut gezeigt wird.


Captcha segmentation
Die einzelnen Arbeitsschritte bei der Bildbearbeitung

Mai 2008:
Auf folgender Website gibt einen guten Überblick über die Vielfalt der heute verwendeten Captchas

Hier ist eine interessante Studie: die Wissenschafter zeigen, dass das "Knacken" von Captchas (pdf) in 2 Schritte verfällt: 1. das Separieren der Zeichen und 2. die Erkennung der Zeichen. Sie legen dar, dass es ausreicht, das erste Problem zu lösen, wenn ich danach Zugang zu Systemen wie Neuralen Netzen habe, die er sehr verzerrte Zeichen sehr gut erkennen können, d.h. die Sicherheit hängt hauptsächlich davon ab, wie gut ich verschleiern kann, wo ein Zeichen aufhört und das nächste anfängt. Die Forscher zeigen, wie auch mit sehr einfachen Algorithmen so etwas erreicht werden kann.

Die Website recaptcha.net bietet für Betreiber von anderen Websites kostenlose Captchas an, die dadurch entstanden sind, dass beim Scannen alter Bücher der OCR Prozess gescheitert ist. Wenn der Benutzer sich dann erfolgreich eingeloggt hat, ist gleichzeitig ein weiteres Wort in einem alten Buch erkannt worden. Wie sicher diese jedoch sind, kann ich nicht sagen.

 

 

Nach oben

 

Verwandte Themen

Auf einer anderen Seite die Themen Roboter, Roboter-Ethik, Uncanny Valley, selbstfahrende Autos und Short history of computer, AI and robots (engl.)

 

Philipp Schaumann, http://philipps-welt.info/


Home

Copyright-Hinweis:
Das Copyright des Materials auf diesen Webseiten liegt, falls kein anderer Autor genannt wird, bei Philipp Schaumann. Creative Commons License
Diese Texte sind lizensiert unter der Create Commons Attribution-Noncommercial-Share Alike 2.0 Austria Lizenz. Natürlich gelten auch die Regeln des Fair Use und über Ausnahmen bzgl. der Lizenz kann jederzeit mit den Autoren gesprochen werden.