Home      Webmaster      

Verwandte Themen an anderer Stelle meiner Website:

Das Problem der schwindenden (bezahlten) Arbeit durch Computer und Roboter

Turing Test und andere Aspekte von Artificial Intelligence

Short History of Computing, AI and Robotics

Auf meiner anderen Website (sicherheitskultur.at) ein Artikel zu Social Robots im Kinderzimmer: Barbie. Es geht um die neue Barbie-Puppe, die die Gespräche im Kinderzimmer in die Cloud überträgt und intelligent antwortet, Siri für kleine Kinder. Außerdem findet auf der sicherheitskultur das verwandte Thema Manipulation durch Algorithmen.

 

Themenübersicht Roboter und künstliche Intelligenzen

 

Autor: Philipp Schaumann - Letzte Aktualisierungen Juni 2016.

Mai 2016:
Eine israelische Firma zeigt ihren kleinen, aber gefährlichen Killer-Robot. Sieht aus wie ein Spielzeugpanzer, schießt (zum Glück mittels Fernbedienung und [noch] nicht autonom) scharf: Ein portabler Kampfroboter, der mit Pistole und mehreren Kameras ausgestattet ist, könnte in Zukunft bei Nahkampfeinsätzen dabei sein..

Dez. 2013:
Ein beeindruckendes Video des japanischen Roboters SCHAFT (die Firma wurde vor kurzem von Google gekauft) im DARPA Wettbewerb Ende 2013. Dabei ging es genau um Probleme, für die in Fukushima die Roboter gefehlt haben (siehe "Der große Roboter-Bluff" etwas weiter unten). Dieser Roboter kann Treppen steigen, Hindernisse wegräumen, Türen öffnen, Ventile öffnen und schließen, Schläuche anschließen und ähnliche Rettungsaufgaben.

Juli 2013:
Das Atlas-Program in den USA versucht mehr Bewegung in die Entwicklung eines humanoiden Roboters zu bringen. Dafür wurde (finanziert durch das US-Verteidigungsministerium) eine sog. Test-Platform geschaffen, d.h. eine Konstruktion mit 2 Armen und 2 Beinen in Menschengröße die eine Beweglichkeit hat, die der menschlichen entspricht. Jetzt sind mehrere Universitäten aufgefordert, für diese Konstruktion entsprechende Software zu entwickeln. Der Artikel verlinkt auf recht beeindruckende Videos.

Link-Konventionen:
Fette Links öffnen ein fremde Seite in einem neuen Fenster
Blau hinterlegte Links bleiben auf der sicherheitskultur.at

Dez. 2012:
Der Autor des Artikels in der Futurezone "Der große Roboter-Bluff" bemerkt (wie auch andere vor ihm), dass sehr auffällig ist, dass zwar seit 10 Jahren der Einsatz von Robotern in Katastrophensituationen beworben wird, aber in Fukushima dann keine zur Verfügung standen und die Menschen ihr Leben und ihre Gesundheit weiterhin riskieren mussten.

Auf meiner anderen Website habe ich mehr zum Thema, warum Algorithmen gefährlich sein können: "Die letzte Generation vor der Singularität".

Auf Youtube findet sich eine detaillierte Antwort im BBC Film How Robots Will Change the World (40 min). Das Problem scheint zu sein, dass keiner der bisherigen Roboter in der Lage ist, Hindernisse zu überwinden, der berühmte Honda Roboter Asimo ist extrem agil, aber nur auf glattem Boden. Der Film bringt viele Beispiele zum Stand der Robotertechnik 2013.

AlphaDog von Boston Dynamics (heute Google X), trägt 180 kg in schlechtem Gelände, folgt dem Soldaten auf dem Fuß - hier dargestellt in einem Video, inkl. eines Absturzes in einen Bach, aus dem er allein wieder rauskommt. Von der gleichen Firma gibt es ein weiteres Video aus dem Jahr 2013: 25 km/h: Roboter-Wildkatze in freier Wildbahn getestet

Mai 2012: Robots go to war
Im Economist (Robots go to war) werden für 2012 wilde Konstruktionen beschrieben: ein kleiner Aufklärungsroboter der 9 Meter hoch springen kann, z.B. auf ein (flaches, südländisches) Hausdach. 2 andere Konstruktionen sind zum Werfen gedacht, eine davon sogar durch Glasfenster hindurch. Wiederum ein anderer ist für das Wasser konstruiert, er kann mittels Magneträdern an Schiffswänden hochklettern und so aufs Deck gelangen.

Dagegen sind selbstfahrende Fahrzeuge und Packesel die bis zu 180 kg Gepäck tragen schon fast alte Hüte. Auch bei winzigen Aufklärungsflugzeugen gibt es große Fortschritte, z.B. kleine Libellen mit eingebauter Kamera.

Weiter unten auf der Seite gibt es mehr zu Robother-Ethik.

Der Artikel im Economist weist aber auch auf potentielle Probleme hin, wie z.B. dass Regierungen schneller bereit zu Angriffen sind wenn sie keine eigenen Soldaten riskieren müssen. Ein Beispiel dafür ist der amerikanische Einsatz von tödlichen Drohnen in bisher 15 Ländern der Welt.

Ein Artikel Anfang 2016 berichtet, dass mittlerweile in 40 Ländern an sog. "Killer-Robots" gearbeitet wird, Robotern, die selbständig Entscheidungen über Leben und Tod treffen.

 

 

 

Für mich eher unerwartete Effekte der Roboter die bereits im Einsatz sind: Mähroboter nerven im Gegensatz dazu potentiell den ganzen Tag.

Vermutlich kann man sie auch so einstellen, dass sie nur dann mähen wenn die anderen Nachbarn auch unterwegs sind, aber evtl. haben wir hier das gleiche Problem wie bei den (früher) endlos 00:00 blinkenden Videorecordern, weil die Umstellung der Zeit so mühsam ist.

Roboter und ihre Geschichte

Wenn wir über Roboter reden, so meinen wir meist androide Roboter, d.h. Roboter, die wie Menschen aussehen. Das muss ja durchaus nicht so sein, wie das Heer der Industrieroboter zeigt, ohne die heute keine Automobilproduktion stattfindet. Roboter in Menschenform haben Vorteile (sie kommen überall da gut zurecht, wo sie eine Umgebung haben, die für Menschen entwickelt wurde), aber sie werfen auch viele Probleme auf. Da wäre z.B. die Schwierigkeit, sich auf 2 Beinen zu halten. Sie werfen aber auch psychologische Probleme für ihre Umgebung auf, mehr dazu weiter unten.

Es ist interessant, sich die Geschichte der Idee und des Begriffs Roboter anzusehen. Ein guter Artikel dazu hier von Roger Clarke. Er erklärt, dass die Idee eigentlich schon sehr alt ist. Sie hat zwei getrennte Ursprünge- Humanoide, das sind nicht-lebende Objekte die wie Menschen aussehen und Automaten. Bereits in der Ilias von Homer gab es Humanoide in der Geschichte der Pandora. Automaten (d.h. Maschinen, die selbstständig etwas ausführen) haben die Menschen schon immer fasziniert und waren schon bei den Griechen bekannt. Wichtig bei ihrer Geschichte sind die Entwicklungen rund um Uhrwerke, die hauptsächlich zur Unterhaltungszwecken eingesetzt wurden.

Dunkle Aspekte wurden 1818 in Mary Shelley's Frankenstein zum Thema. Es geht um die Erschaffung eines menschenähnlichen Lebewesens. Damit wurde eine ganz literarische Tradition begründet. Der Begriff Roboter kommt aus dem Tschechischen und bedeutet jemand, der Zwangsarbeit ausführen muss. Hintergrund ist ein Theaterstück "R.U.R" von Karel Capek aus dem Jahr 1918, in dem die Firma R.U.R. (Rossums's Universal Robots, auf biologischen Weg Zwangsarbeiter schafft, die aber dann rebellieren und die Menschheit vernichten. Das ist natürlich genau das Thema, das dann bei Matrix wieder die Hauptrolle spielt. Ebenfalls stark negativ besetzt sind die Kunstwesen wie Frankenstein oder der Golem (aus der jüdischen Folklore, ein künstlich erzeugter Mensch, durch kabbalistische Rituale zum Leben erweckt).

Der Science Fiction Schriftsteller Isaac Asimov begann dann 1940 den Begriff Robot in einer positiveren Zusammenhang mit Maschinen zu sehen. Er sagte: "meine Roboter waren Maschinen, entworfen von Ingenieuren und nicht Pseudo-Menschen, geschaffen von Gotteslästerern". Er entwarf zusammen mit dem Science Fiction Schriftsteller John W. Campbell die 3 Roboter-Gesetze, die sicherstellen sollen, dass die Maschinen keinen Schaden anrichten können, mehr dazu weiter unten.

Zum Anlass des Films "I Robot" gibt es einige gute Artikel in Wired zum Thema Roboter und Isaac Asimov (mit einer Reminiszenz an Roboter der Filmgeschichte, u.a. zurück bis zur Maria in Metropolis) (siehe dazu auch movie-monsters)und dem derzeitigen Stand der Robotertechnologie

Hier ein Link zur Website Androidworld (englisch) und dann noch ein Link zu New Scientist, wo ein Artikel über den ersten "Robot" erschienen ist, der mit richtigen Muskelzellen arbeitet. Dies geht davon weg, dass Roboter immer nur aus Metall, Plastik und Motoren bestehen müssen. Die Verwendung von richtigem Gewebe hat viele Vorteile (siehe auch die Roboter in "Bladerunner", in der Sektion Literatur).

 

Und hier ein Link zu einer anderen eher spielerisch anmutenden Disziplin Kämpfe zwischen Robotern. Ähnliche Aktivitäten, aber offensichtlich deutlich brutaler, werden in den USA (Stichwort: BattleBots) veranstaltet, jedoch müssen diese Roboter nicht zweibeinig sein, kommen in allen Formen und Arten und haben die Zerstörung des Gegners zum Ziel.

Verena Hafner hat auf dem CCC im Dez. 2005 einen interessanten Vortrag zu Geschichte der Roboter gehalten, mit vielen Bildern (pdf, 1,2 MB). Wired hat einen interessanten Artikel zu 50 Best Robots Ever.

 

Hier der Link zu einem Interview aus dem Jahr 2014 zur Problematik des bewaffneten Robotereinsatzes im Krieg: "Autonome Waffensysteme werden schleichend eingeführt"

Okt 2015: NATO und Fraunhofer-Gesellschaft arbeiten an bewaffneten Robotern (autonomen Systemen), prominente AI und Robotics Forscher warnen davor.

Eine für meinen Geschmack unschöne Entwicklung sind die Kampfroboter, die mit Maschinengewehren ausgerüstet sind und derzeit noch nicht autonom eingesetzt werden, sondern nur über eine Fernsteuerung. Aber der Artikel im NewScientist 2006 Robot infantry get ready for the battlefield. Er zitiert die Entwickler, die das nur als Übergangsschritt sehen.

    "Pentagon's Office of Naval Research (ONR) wants to engineer mobile robots to "understand cooperative and uncooperative" people, and inform their operator if they seem a threat. It hopes to do this using artificial intelligence software fed with data from a "remote physiological stress monitoring" system, and by using speech, face and gesture recognition. From this it would draw inferences about the threat that person poses."

 

2007:
In Irak sind mehr und mehr Roboter in den Einsätzen beteiligt. Die Washington Post nimmt dies zum Anlass, um über die starke emotionale Bindung zwischen den Soldaten und ihren Robot-Maschinen zu berichten. Weiter unten auch mehr zum emotionalen Verhältnis zu Robotern.

 

Mai 2008:
Das US Pentagon schreibt in einer Studie, dass bereits 2015 ein Drittel der Bodenfahrzeuge unbemannt sein sollen und ein Drittel der Angriffsflugzeuge bereits 2010. Hier der Artikel und Fotobericht über Robots of War. Ein beeindruckendes Beispiel für den Stand der Robottechnologien bietet dieses Video eines Vierfüßler-Robots.

Hier der Wikipedia Eintrag zu SWORDS (Special Weapons Observation Reconnaissance Detection System).

Fliegende Quadrocopter an der ETH Zürich
Quelle: Flying Machine Arena

 

Dez. 2010:
Ein ziemlich fundierter Artikel in der NY Times diskutiert den immer stärker werdenden Einsatz von Robotern im Iran und Afghanistan: War Machines: Recruiting Robots for Combat. Der Einsatz betrifft derzeit hauptsächlich Geräte die nur halb-autonom sind, d.h. sie werden von einem Soldaten gesteuert der über eine Video-Verbindung sehen kann, was der Roboter "sieht". Der Trend geht jedoch immer mehr auch zu autonomen Systemen und die werfen eine ganze Reihe von juristischen und ethischen Problemen auf, z.B. wenn die Entscheidung Zivilist oder Feind einem Computer überlassen wird. Hier ein Bildbericht New Generation of Robotic Wepapons aus der NY Times.

creepyrobots.tumblr.com ist eine Website mit vielen Filmbeispielen zu Robotern im Einsatz, oft durchaus beängstigende Filme.

 

April 2011:
Wirklich toll anzuschauen: Faszinierende Videos von Robot-Hubschraubern (Quadrocopter mit 4 Rotoren) die an der ETH Zürich entwickelt werden, extrem beweglich sind und auch kooperieren können. Sie können sogar Bälle jonglieren.

Aug. 2015:
Ein Forscher fragt, ob wir vor einer kambrischen Explosion für Roboter stehen? Die kambrische Explosion der Artenvielfalt beschreigt einen geologisch kurzen Zeitraum von 5 bis 10 Millionen Jahren zu Beginn des Kambriums in dem die grundlegenden Körperbaupläne vieler mehrzelliger Tierstämme entstanden. Die Gründe dafür sind nicht ganz klar, aber irgendwie hatte die Evolution in den langen Zeiten davor die Grundlagen gelegt, so dass die eigentliche Artenvielfalt sehr schnell entstehen konnte. Der Forscher geht davon aus, dass auf dem Gebiet der Robotik ein ähnliches Stadium erreicht ist. Die Faktoren die er aufzählt sind: Rechenleistung, Fortschritte bei computer-unterstütztem Design und Fertigung, Batterientechnologien, Energie-Effizienz, drahtlose und drahtgebundene Kommunikation, Internet-Bandbreite, Sensoren und Manipulatoren, Datenspeicherkapazitäten.

 

 
Klick führt zu qrio
QRIO von Sony - Details mit Klick auf das Foto
AIBO von Sony

Nach oben

 

Androide oder nicht-androide Roboter - wie Verhalten sich die Menschen?

Humanoide (d.h. androide, menschenähnliche) Roboter, die wirklich auf 2 Beinen laufen und sich visuell in der normalen Umwelt orientieren können sind eine ganz andere Herausforderung. Einmal technisch, zum anderen auch von der Akzeptanz, über die viele Science Fiction Bücher geschrieben wurden.

Dass humanoide Robotor am leichtesten über das Kinderzimmer in unser Leben akzeptiert werden würden, hat Sony schon vor einigen Jahren erkannt und sich auf den Hund Aibo und jetzt den Spielzeugroboter Qrio (sehr schön der Film als Dirigent)konzentriert. Schon bei Aibo hat mich die Perfektion der Bewegungen begeisert und Qrio ist noch ein Stück besser. Durch das Rührende, das die Bewegungen des Hundes haben und durch die "süße" Größe von Qrio werden die Erinnerungen an Kunstwesen wie Frankenstein oder den Golem gar nicht erst geweckt. Auch sehenswert ist der Asimo von Honda.

Klick führt zu electrolux
Trilobite von Electrolux- Details mit Klick auf das Foto

Den nächsten Schritt zum akzeptierten Roboter im Haushalt geht dann wohl vom Kinderzimmer in die Küche, bzw. zu Hausarbeiten. Schon seit einigen Jahren gibt es eine Reihe von Staubsaugrobotern (wobei es heute Konkurrenzprodukte

Robosapien
mit mehr Saugleistung für deutlich weniger Geld gibt, z.B. den Roomba Red), bzw. zum Rasenmähen, die derzeit aber alle noch nicht humanoid sind. Die humanoide Form wird aber für Arbeiten in der Küche notwendig sein, da Kücheneinrichtungen nun mal für humanoide Formen optimiert sind.

Ein neuer Spielzeugroboter (Ende 2004) ist der Robosapien. Das besondere daran ist nicht, dass er viel kann (er kann erheblich weniger als Aibo und Qrio), aber er kostet auch nur 99 Euro (statt 1900 für den Aibo). Der Grund dafür und die Geschichte des Spielzeugs wird ausführlich in einem NY Times Artikel erklärt (kostenpflichtig). Der Roboter wurde nämlich von einem amerikanischen Ingenieur Mark Tilden nach einem viel einfacheren Konzept entwickelt als die anderen Spielzeug-Robots: Analog-Technik statt Digital-Technik. Robosapien hat z.B. nur 7 Motoren und nur 12 KB programmierbaren Speicher. Das bedeutet, dass er nicht wirklich frei programmierbar ist, sondern nur fest eingebaute Bewegungen kennt (14 offizielle und weitere 28, die nicht im Manual dokumentiert sind), nicht sehen kann, nicht sprechen kann (nur Geräusche). D.h. im Gegensatz zu den anderen erwähnten Robots ist der Robosapien wirklich ein Spielzeug und eigentlich keine Robotplatform zur freien Programmierung. Allerdings gibt es natürlich Leute, die trotzdem Erweiterungen (Hacks) einbauen können. Eine recht gute Beschreibung des Konzepts findet sich übrigens auf der amazon website. Mark Tilden betont jetzt, dass der Robosapien gar nicht so schlecht für Erweiterungen geeignet ist: "A single screwdriver takes the RS apart and inside everything is labeled, color-coded and socketed for convenience". Fotos vom Robosapien im Fußballturnier auf der o.g. Website von Verena Hafner.

RoboMow RL 800
RoboMow, der Rasenmäher

Außer bei den Staubsaugern gibt es kommerzielle Roboter im Haushalt auch in der Form von Rasenmähern, z.B. den RoboMow RL 800 oder den Automower. Dazu gibt es die nette Anekdote, wo sich der Rasenmäher nach vielen Jahren erfolgreichen Mähens dann eines Tages in den Gartenteich gestürzt hat, den er bis dahin immer erfolgreich vermieden hatte. Dies war von den Besitzern als Selbstmord interpretiert worden, evt. hatte sich doch eine Psyche eingestellt, der die langjährige Monotonie zu viel wurde. ;-)

Klick führt zu Artikel
Klick führt zum Artikel
Ein deutschsprachiges Diskussionsforum zu Robotern gibt es bei roboternetz.de und interessante Infos zu humanoiden Robots (einschließlich eines APIs für Robotsapien) gibt es bei der Uni Freiburg.

Noch ein überraschender Zugang zur Welt der Roboter: Lego. Mit ihrer Serie Mindstorms bieten sie Bausätze an, zu denen es mittlerweile über 40 Bücher und eine ganze Reihe von Programmiersprachen und Softwarepakete, nicht nur von Lego selbst, gibt. Hier eine Besprechung in Forbes Maqazin.

 

Emiew von Hitachi

Auf dem Gebiet der humanoiden Roboter tut sich derzeit (Ende 2004, Jan 2005) einiges. Die BBC berichtet im Februar 2005 von 3 Entwicklungen bez. effektivem Gehen, nämlich "passive dynamics". Dabei geht es darum, dass der Roboter, so wie die Menschen, den Schwung des einen Schritts für den nächsten Schritt ausnutzt. Eine Effektivitätserhöhung von Faktor 10 beim Energieverbrauch war damit möglich.

Derzeit (März 2005) tut sich sehr viel bei den Robotern. Hitachi hat den 130 cm großen Emiew vorgestellt, der auf 2 Rädern balanciert und dadurch bis zu 6 km/h schnell sein kann. Eine durchaus intelligente Lösung für das Problem der Fortbewegung. Geplant ist der Roboter wohl als Bürobote, er hat einen Wortschatz von 100 Worten (die er auch versteht), weicht Hindernissen aus und kann Händeschütteln. Ein Leserbriefschreiber im Wiener Standard bemerkt dazu, dass ein Roboter der 100 Worte kann und Händeschütteln bereits ausreichend qualifiziert wäre, dass er auch als Politiker eingesetzt werden kann.

Das unheimliche Tal (Quelle Wikipedia

Geniale Beweglichkeit (hinlegen, aufstehen, Rolle rückwärts) zeigt der Nuovo von einer Firma ZMP in Japan. Dieser kleine Robot ist ausdrücklich dafür gedacht, bei der Hausarbeit zu helfen. Kosten ca. 7000 $.

Das unheimliche Tal (Uncanny Valey)

Von einem "unheimlichen Tal" spricht man, wenn es um die Akzeptanz von Robotern oder Avatare durch Menschen geht. Dabei zeigt sich ein eigenartiger Effekt: Auf dem Web von einem sehr künstlich aussehenden Roboter oder Avatar (z.B. C-3PO aus Starwars) hin zu einem immer engeren Antropomorphismus (Menschenähnlichkeit) gibt es ein Tal, bei dem die schon recht menschenähnlichen Objekte unheimlich auf die Betrachter wirken. Ein sehr viel tiefer gehender Deutungsversuch findet sich auf der engl. Wikipedia zum Uncanny Valley.

Genau dieses Konzept der Unheimlichkeit wurde übrigens bereits 1906 von dem Deutschen Psychologen Ernst Jentsch entwickelt: "Zur Psychologie des Unheimlichen" und dann erst 1070 von dem japanischen Roboter-Wissenschaftler Masahiro Mori weiterentwickelt. Ein Puppenhersteller ist 1972 in diese Falle gelaufen, und zwar die Blythe Puppe. Sie wurde 1972 durch ihre großen beweglichen Augen zum Alptraum vieler Kinder und zu einem kommerziellen Flop. (Hier der englische Wikipedia Eintrag mit einem Bild).

In ähnliche Effekte kommt 2012 die Werbe-Industrie. Sie entdecken, dass über Behavioural Targetting so viele Informationen über Konsumenten gewonnen werden können, dass es zu dem gleichen Gruseleffekt kommt.

Jan. 2013:
Ein Artikel im New Scientist (leider nur für Abonennten) beschreibt neue Forschungen zum Uncanny Valley mit der Zusammenfassung:

    . . . almost lifelike robots make us feel uneasy because we see in them the shadow of a human mind, but one that we know we can never comprehend. In other words, it's not just about our failure to sympathise with uncanny robots and computer-generated characters; it's also about our perception that they can empathise with us.

 

Das Gegenteil des Uncanny Valey: Gefühle für Roboter

Der Pleo Spielzeugroboter

Mai 2013:
Ein interessanter Artikel findet sich (mit einem unzutreffenden Namen) auf der Futurezone. Es geht um Brauchen Roboter Rechte?. Es geht dabei (und den Forschungen über die berichtet wird) eigentlich nicht so sehr um die Rechte von Robotern, sondern um die Gefühle die Menschen sog. Social Robots gegenüber empfinden. Mit Social Robots sind Spielzeuge wie etwa der Dinosaurier-Roboter Pleo, der auf Bewegungen und Geräusche reagiert und sich füttern lässt und kreischt, wenn man ihm am Schwanz hochhebt. Die Forscherin und andere an der Uni Duisburg-Essen haben untersucht wie sich die meisten Menschen gegenüber solchen stark antropomorpen Spielzeugen verhalten (d.h. denen die Menschen menschliche Eigenschaften wie Gefühle zusprechen, wie dies bei Tieren sehr häufig der Fall ist). Hier die Studie: Extending Legal Rights to Social Robots.

Was diese Forschungen aufzeigen sind einseitige emotionale Bindungen, die aber zum Teil recht stark sein können (einseitig, weil die derzeitigen Roboter ja noch weit weit weg von Gefühlen sind, sie können maximal über ihre Algorithmen ein Verhalten zeigen, in das die Menschen dann Gefühle reininterpretieren, daher die Antropromorphismus). Solche Spielzeuge sind zahlreich auf dem Markt und werden zum Teil sogar als therapeutische Werkzeuge eingesetzt. In diesen Tests wurden Personen aufgefordert, diese Maschinen zu quälen oder zu zerstören. Im Gegensatz zu anderen Maschinen wie Toastern erzeugt diese Aufforderung, bzw. der Anblick eines solchen Verhaltens bei den meisten Menschen starken Widerstand. Entsprechende Youtube-Videos erzeugten stark polarisierende Kommentare.

Die Studie berichtet auch vom Einsatz von Robotern beim US-Militär der angeblich abgebrochen wurde weil die beteiligten Soldaten ihn als "inhuman" empfanden. Der Punkt der Forscherin ist, dass es offenbar bei der Mehrheit der Bevölkerung eine Überzeugung gibt, dass "es sich nicht gehört" wenn Roboter gefoltert werden die starke Gefühle bei anderen Menschen auslösen. Sie fragt, ob nicht analog zum Tierschutz auch ein Verbot des Quälens von Social Robots sinnvoll sei. Sie bringt die Analogie zum Tierschutz, weil auch dabei der Schutzgrad unterschiedlicher Tiere hauptsächlich davon abhängt, wie viele Gefühle die Menschen einer Tierart gegenüber aufbringen (wie "süß" die Tiere sind).

Ein weiterer Aspekt ist, dass aufgezeigt werden kann, dass Tierquälerei sehr oft mit häuslicher Gewalt korreliert ist und sie vermutet, dass auch ein Zusammenhang zum "Quälen" von Spielzeug besteht. Sie verweist darauf, dass Kinder traumatisiert werden könnten wenn sie sehen, wie andere diese "lieben" Spielzeuge terrorisieren.

 

Sept. 2013:
Interessanter Artikel in der NYT: How Robots Can Trick You Into Loving Them. In dem Artikel wird beschrieben, wie kleine Änderungen im Verhalten von Robotern dazu führt, dass Menschen sie anders einschätzen. Dabei werden sehr alte Mechanismen ausgenutzt, die uns von der Evolution mitgegeben wurden und die Kinder bereits im Alter von 1 Jahr erlernen.

 

Die Nutzung von Robotern um Beeinflussungen durch andere Menschen zu vermeiden

Feb. 2013:
New Scientist berichtet über einen umgekehrten Effekt: Wenn Zeugen befragt werden, so tritt durch leichte Variationen in der Fragestellung eine deutliche Beeinflussung der Antworten ein. In Experimenten konnte gezeigt werden, dass Zeugen, die einen Film beschreiben sollten, durch entsprechende Fragen Beobachtungen berichteten, die gar nicht im Film waren. Wenn aber wörtlich die gleichen Fragen durch einen Roboter gestellt wurden, so trat dieser Beeinflussungseffekt nicht auf, die Menschen waren immun gegen die Suggestionen.

 

Glaubwürdige Roboter

Januar 2011:
Ein sehr interessanter Artikel beschreibt wie ähnlich die Problemstellung eines glaubwürdigen Robots ist zu den Herausforderungen, die im Method Acting analysiert werden: HRI: Four Lessons from Acting Method (pdf).

Ebenfalls aus dem Gebiet der Schauspielkunst: Auf der ARS ELECTRONICA 2011 treten Robot-Schauspieler zusammen mit menschlichen Schauspielern auf.

Mai 2011:
In einem interessanten Artikel über intelligente Roboter in der futurezone findet sich eine Theorie warum unterschiedliche Kulturen unterschiedliche Zugänge zu Robot-Technologien haben:

    „Japan und der asiatische Raum waren immer schon vom sozialen Aspekt fasziniert. Das lässt sich allein daran ablesen, dass beinahe alle menschenähnlichen Prototypen der vergangenen Jahre von dort stammen. Der Zugang zur Technlogie ist kulturell und spirituell bedingt ein völlig anderer als in Europa oder den USA“, erklärt Kirchner. Die unbelebte Natur, aber auch Gegenstände würden aus der Tradition heraus eine Daseins- und Eigenberechtigung genießen. Ein Roboter werde folglich auch als mehr empfunden als die Summe seiner Einzelteile, so Kirchner.
    Während also die Frage, ob ein menschenähnlich gestalteter Roboter in der Krankenpflege eingesetzt werden kann, in der japanischen Gesellschaft klar mit einem Ja beantwortet werde, seien die Europäer diesbezüglich viel skeptischer. „Aus europäischer Sicht verfügt eine Maschine wie alle anderen Gegenstände über keinen Geist und kein Ich im übertragenen Sinn. Es handelt sich um ein Ding. Wird es mutwillig zerstört, liegt maximal eine Sachbeschädigung vor“, erklärt Kirchner.
    In der Roboterforschung und der Industrie macht sich dieser Zugang insofern bemerkbar, dass europäische Forschung vor allem mit funktionell ausgelegten Robotern punktet, sei es nun bei Robotermissionen auf dem Mars, in der Tiefsee oder in zerstörten Kraftwerksanlagen. „Unser Zugang ist, dass wir Roboter dorthin schicken, wo es uns zu schmutzig oder zu gefährlich ist. In den USA ist die Herangehensweise sehr ähnlich. Dort gibt es vielleicht noch weniger Skrupel, Roboter auch zu militärischen Zwecken einzusetzen“, sagt Kirchner.

 

 

Nach oben

Ein sehr empfehlenswertes Buch zum Thema Ethik ist Richard David Precht: Wer bin ich und wenn ja, wie viele?. Eine sehr griffige Einführung in philosophische Themen mit einem ausführlichen Kapitel zu Ethik.

Sehr zu empfehlen als konzentrierte Einführung in das Thema Ethik ist einer der Podcasts von Radiolab in NY. Der Beitrag Morality stellt die Verbindung zwischen jahrtausende-alter Philosophie und den modernen Forschungen zu Ethik dar.

 

Aktuelle Problemstellungen wie autonome Fahrzeuge und Killer-Robots

Probleme der Ethik für Roboter und künstliche Intelligenzen

 

Jan. 2014: Als ich die vorhergenden Teile dieses Artikel geschrieben hatte (ca. 2004) war das Thema Roboter noch sehr sehr abstrakt. Mittlerweile haben wir erste selbstfahrende Autos auf unseren Straßen. Und wie Robert Trappl vom Österreichischen Forschungsinstitut für Artificial Intelligence (OFAI) anreißt können sich für diese Steuerung sehr wohl ethische Fragen ergeben (auch wenn die aktuellen Versionen vermutlich nur mit allen Mitteln versuchen werden, den Unfall zu verhindern ohne komplexe ethische Betrachtungen anzustellen). Welche Überlegungen sich dabei ergeben würden, das umreißt z.B. der Podcast von Radiolab zu Morality (z.B. die "railway track"/"Trolley Problem" Überlegungen, sehr empfehlenswert).

 

Juli 2015: Ich unterrichte "Ethik für Menschen und Roboter" an den FHs St.Pölten und Hagenberg. Die dazugehörige Präsentation findet sich auf meiner Website (siehe Link). In dieser Vorlesung werden die hier dargestellten Probleme mit den ersten autonomen Robotern unter uns ausführlich behandelt (es gibt auch eine Kurzversion die ich mehrfach auf Kongressen vorgetragen habe).

Viele interessante Links zu Technik-Ethik sind in Inside Google's Mysterious Ethics Board, mit vielen weiterführenden Links zu weiteren Artikeln und insgesamt viel Lesestoff, z.b. zu militärischen Drohnen (dazu auch hier), Pain Rays, Robot Swarms und Biologically Enhanced Soldiers.

Auch interessant: 5 Aufgaben, die ein autonomes Fahrzeug schlecht lösen kann.

Autonome Fahrzeuge - die ersten sozialen Robots

Während wir immer noch auf 2-beinige intelligente Roboter warten, die uns im täglichen Leben begegnen werden, tauchen die ersten 4-rädrigen Roboter in der Form der (mehr oder weniger) "autonomen Fahrzeuge" auf unseren Straßen auf. In Europa sind sie derzeit noch halb-autonom und übernehmen nur auf Autobahnen, aber das ist nur eine Frage der Zeit. Und diese Roboter sind sehr wohl sozial, will sagen, sie kommunizieren mit den anderen Verkehrsteilnehmern durch ihr Verhalten und ihre Interaktionen auf der Straße.

Das heißt, autonome Fahrzeuge kommen immer näher und werfen eine ganze Reihe von schwierigen ethischen Fragen auf. Patrick Lin stellt diese sehr gut in The Ethics of Autonomous Cars und The Ethics of Saving Lives With Autonomous Cars Is Far Murkier Than You Think mit vielen weiterführenden Links. Ein weiterer Artikel ist When Should Your Driverless Car From Google Be Allowed To Kill You?.

Eine sehr schöne Darstellung, welchen "Überblick" über seine Umgebung ein autonomes Google Fahrzeug in komplexen Situationen halten kann, zeigt das Video hier. Kein Mensch kann so vielen Fahrzeuge gleichzeitig im Blick und Bewusstsein haben.

Hier einige Gedanken aus den obigen Texten:
Diese Autos werden (vermutlich) deutlich sicherer sein, aber . . .

Auf meiner anderen Website ein Artikel zu einer anderen Art von Social Robots: Social Robots im Kinderzimmer: Barbie.

Es geht um die neue Barbie-Puppe, die die Gespräche im Kinderzimmer in die Cloud überträgt und intelligent antwortet, Siri für kleine Kinder.

  • Die Zahl der Unfalltoten wird sinken, aber ziemlich sicher werden ANDERE Personen sterben als früher
  • Frage: rechtfertigt die Reduktion von z.B. 20 000 Toten auf 10 000 Tote, dass dann andere Menschen sterben müssen?
  • Frage: Ändert sich die Antwort, wenn die „neuen“ Opfer aus einer anderen Kategorie sind, z.B. mehr Schulkinder, oder mehr Radfahrer, oder . . . ? (vergleiche hierzu: „Licht am Tage“ hatte die Zahl der Toten Autofahrer auf Kosten der Toten Fußgänger reduziert)
  • Der Algorithmus im Auto muss im Zweifelsfall entscheiden, auf welche Weise ein Unfall vermieden werden soll.
  • Szenario 1: das selbstfahrende Auto erkennt, dass ein vollbesetzter Schulbus auf das Auto zukommt, links ist eine hohe Wand, rechts ein Abgrund – wie soll der Algorithmus entscheiden?
  • Szenario 2: das selbstfahrende Auto erkennt, dass ein Wagen mit Teenagern einen Frontalunfall provoziert, weil die Teenager wissen, dass das Auto auf jeden Fall ausweichen MUSS
  • Frage: Falls der Algorithmus utilitaristisch eingestellt ist, sollte es eine Option für den Fahrer sein, ob er bereit ist zu sterben, wenn er dadurch die Teenager retten kann?

Alle diese Fragestellungen (und noch viele mehr) werden in meiner 3-stündigen Lerneinheit zu "Ethik für Menschen und Roboter" diskutiert.

2016:
Außerdem werden die Fragen auch von Forschern untersucht, die im Sommer 2016 ihre Ergebnisse veröffentlichen: Moralische Dilemmata autonomer Autos (deutlich ausführlicher und besser in der NY Times: Should Your Driverless Car Hit a Pedestrian to Save Your Life? und die Studie selbst The social dilemma of autonomous vehicles)

Die kurze Zusammenfassung der Ergebnisse: Die Mehrheit der Testteilnehmer ist dafür, dass solche Fahrzeuge wenn sie entscheiden müssen entweder einen oder mehrere Personen zu töten (oder tödlich zu gefährden, dass sich dann das Fahrzeug im Sinne des Trolley Problems entscheiden soll, d.h. im Sinne des Utilitarismus die geringere Zahl von Toten wählen soll, auch wenn dabei der Fahrer zu Tode kommt. Im Fall von den zehn Fußgängern und einem Autofahrer entschieden sich 76 Prozent dafür, den Fahrer zu opfern.

Anders sah es aus, wenn es darum ging, ob die Testteilnehmer ein solches utilitaristisch entscheidendes Auto zu nutzen. Nun war die Mehrheit zwar dafür, dass die anderen Verkehrsteilnehmer das tun sollten, sie selbst wollten aber ein Fahrzeug das als erste Priorität den Fahrer und die Insassen schützt. D.h. da geht sich was nicht aus - eine Lösung könnte sein, dass Regierungen die utilitaristische Programmierung vorschreiben könnten, aber auch hierfür gab es keine Mehrheit. Bzw. im Fall dass Regierungen das vorschreiben, so sank das Interesse an autonomen Fahrzeugen deutlich. Dies würde vermutlich zu ganz neuen Job-Opportunities führen, siehe etwas weiter unten zu den "neuen Auto-Tunern".

Und dann gibt es noch die Option, dass der Fahrer das jeweils beim Start einstellen kann, wie das Auto sich verhalten soll (z.B. wenn seine Kinder im Wagen sind, soll das Fahrzeug auf jeden Fall versuchen, die Insassen zu retten, auch auf die Gefahr hin, dass eine größere Zahl anderer Personen zu Schaden kommt). Hier der Link zu einer Umfrage aus dem Jahr 2014 zu der Frage, wie so ein Fahrzeug programmiert sein sollte: If death by autonomous car is unavoidable, who should die? Reader poll results.

Nov. 2015:
Ein Gutachten zu "autonomen Fahrzeugen in Deutschland" kommt zu dem Schluss, dass es bis 2020 "hochautomatisiertes" Fahren geben kann, aber kein "vollautomatisiertes". Bei diesem sei nämlich die Haftungsfrage für Deutschland noch weit offen. "Hochautomatisiert" heißt, dass für "einen gewissen Zeitraum in spezifischen Situationen" die Fahrzeuge die Regie übernehmen können. "Vollautomatisiert" sehen sie für Deutschland nicht vor 2030. Und Eric Hilgendorf, Leiter der Forschungsstelle RobotRecht an der Uni Würzburg sieht für die rechtliche Situation in Deutschland noch einiges zu tun, bevor einem Robot-Fahrzeug die Entscheidung überlassen werden kann, wie es sich in den oben skizzierten Situationen verhalten soll. Zu Beispielen wie weiter oben sagt er: "Nichts davon wäre legal programmierbar. Nach heutiger Rechtslage ist beides verboten. Ich darf Leben nicht gegeneinander aufrechnen. So bleiben wohl nur zwei Möglichkeiten: autonome Autos verbieten oder bestehende moralische Kategorien überdenken". Hilgendorf plädiert für Letzteres: "Wir müssen zu einer Quantifizierung von Menschenleben kommen."

Die neuen Auto-Tuner

Jan. 2016:
Es gibt immer mehr Veröffentlichungen zum Thema autonome Fahrzeuge. Der Science Fiction Autor Cory Doctorow bringt eine zusätzliche Komplikation in die Diskussion: Who controls the code? Wenn wir denn mal so weit sind, dass die Computer in den Fahrzeugen sicher entscheiden können, wer im Notfall geopfert wird, wie verhindern wir, dass ein neuer Zweig von "Tunern" die Software leicht verändert, z.B. diesen Algorithmus anpasst so dass dem Fahrer am wenigsten passieren kann und noch viel gefährlicher, den Teil des Codes deaktiviert, der ein Überschreiten der Höchstgeschwindigkeit verhindert. Für diese Modifikation sehe ich einen ausreichenden Markt, denn das strikte Einhalten der Verkehrsregeln könnte für viele potentielle Käufer ein Grund sein, so ein Fahrzeug nicht zu kaufen.

Dass es fast unmöglich ist, Code-Modifikationen zu verhindern, zeigt das Desaster rund um Digital Rights Management, d.h. das Verhindern von Raubkopien. Es klappt einfach nicht. Denn der Code muss natürlich durch autorisierte Stellen modifizierbar sein, sonst könnten ja keine Sicherheits-Patches installiert werden. (Das geht bei modernen Autos (2015) sehr oft, indem der Besitzer sich von der Website des Herstellers ein Programm auf einen USB-Stick spielen muss und den dann im Fahrzeug reinstecken. Dann modifiziert sich der Bordcomputer. Viel komplizierter wird das Abschalten der Verkehrsregeln in Zukunft auch nicht sein.

Buchhinweis


Kill Decision von Daniel Suarez

Ich habe das Buch (noch) nicht gelesen, aber es geht wohl um einen Krimi rund um die Themen die hier behandelt werden: autonome Roboter in Form eines Drohnen-Schwarms, die terroristische Anschläge durchführen ohne dass der Täter bekannt werden. Hier ein TED Talk von Daniel Suarez in dem er betont, wie real sein Szenario bereits ist.

 

Killer Robots

An anderer Stelle: Software die tötet - z.B. Drohnen (drones, UAV)

Feb. 2013:
Eine sehr interessante Studie behandelt die ethischen und juristischen Fragen rund um "Autonomous Weapons, vulgo "Killer Robots": LOSING HUMANITY - The Case against Killer Robots. Autonomous Weapons sind solche, die selbstständig ihre Ziele aussuchen und dann selbstständig schießen, ohne dass ein Mensch auf einen Knopf drückt, so wie (jetzt noch) bei den Drohnen, den UAVs. Solche Systeme sind keine reine Science Fiction, es gibt bereits "defensive systems", die automatisch, wenn scharf gemacht, versuchen anfliegende Raketen oder Granaten zu entdecken und abzuschießen. Beispiele sind Phalanx bei der US Navy zur Verteidigung von Schiffen, die zu unrühmlicher Bekanntheit kam, weil diese Waffe in den Abschuss eines zivilen iranischen Passagierflugzeugs involviert war. Die US-Army setzte ein ähnliches System zur Verteidigung ihrer Stellungen im Irak ein und die Bundeswehr hat so etwas unter dem Namen NBS Mantis in Afghanistan im Einsatz. Auch das israelische Abwehrsystem Iron Dome muss zu schnell reagieren als dass ein Mensch eingreifen könnte.

Die sehr lesenswerte Studie beschäftigt sich dann mit solchen Systemen die für allgemeine Militäraufgaben vorgesehen sind, die sind bei vielen Armeen in Arbeit. Probleme dabei sind vor allem, dass solche Systeme

  • kaum zwischen Zivilisten und Kombatanten unterschieden können, vor allem wenn Letztere keine Uniformen tragen
  • Schwierigkeiten haben bei der Abwägung, wie viele zivile Tote notfalls in Kauf genommen werden können
  • die Verhältnismäßigkeit eines Einsatzes im Rahmen der kriegerischen Gesamtsituation nicht beurteilen können
  • keine Emotionen haben, d.h. sich auch nicht in spezielle Situationen hineinfühlen können, die einem Menschen sofort klar sind (z.B. Frau rennt schreiend hinter 2 Kindern mit Spielzeuggewehren her, die auf den Soldaten zulaufen)

Als weiteres Problem wird genannt, dass dadurch dass die eigenen Soldaten bei solchen Einsätzen nicht mehr zu Schaden kommen (so wie jetzt schon bei den Drohnen Einsätzen der USA) die Hemmschwelle für den Einsatz in fremden Ländern immer mehr fallen könnte. Auch für Diktatoren, die ihre eigenen Bevölkerung unterdrücken wollen haben Killer Robots große Vorteile gegenüber einer menschlichen Armee, die sich doch manchmal zur Meuterei entschließt.

Ein weiterer problematischer Punkt ist, dass im Falle dass von einem Roboter ein offensichtliches Kriegsverbrechen begangen wurde (z.B. große Menge Zivilisten erschossen), es keine Möglichkeit gibt, jemanden zur Verantwortung zu ziehen. Der Kommandant der ihn losgeschickt hat konnte nicht wissen, dass der Roboter so etwas tun würde (es stand nicht im Datenblatt), der Programmierer der evtl. einen Fehler gemacht hat kann nur bei grober Fahrlässigkeit zur Haftung herangezogen werden und der Roboter kann sowieso nicht sinnvoll bestraft werden.

Problematisch wird in der Zukunft werden, dass in dem Augenblick wo einige Armeen diese Dinge im Einsatz haben, es für die anderen notwendig sein könnte, ebenfalls solche einzusetzen und zwar solche, die noch schneller und noch bedenkenloser schießen als die vom Feind.

Im New Scientist warnt ein Artificial Spezialist davor, dass die Situation um autonome Killer Robots bald außer Kontrolle kommen kann, wenn nicht bald ein Bann dieser Geräte verabschiedet wird: Why we need to stop military killer robots now . Er meint, dass für die Regierungen so viele (auch ökonomische) Gründe für deren Einsatz sprechen, dass die damit vermutlich verbundenen Opfer in der Zivilbevölkerung dann irgendwann leicht in Kauf genommen werden.

Nov. 2014:
Ein Artikel in der NYT Fearing Bombs That Can Pick Whom to Kill über intelligente Systeme die sich ihre Ziele selbst aussuchen. Kein Science Fiction mehr: "Britain, Israel and Norway are already deploying missiles and drones that carry out attacks against enemy radar, tanks or ships without direct human control." Diese Waffen wurden bereits aktiv eingesetzt, z.B. von Großbritannien im Libyen-Konflikt.

 

 

Nach oben

 

Die 3 Robotergesetze von Asimov und ihre Probleme

Zum Film "I, Robot" wurden die 3 Robotergesetze von Asimov wieder neu diskutiert. Nicht in dem Sinne, dass zukünftige Robots diese wirklich implementieren müssten, sondern als interessante Gedankenexperimente zu Fragen der Technik und der Ethik. Es stellt sich nämlich dabei sehr bald heraus, dass die sehr einfach klingenden Gesetze in der Anwendung so kompliziert erscheinen, dass wohl nur ein Mensch in der Lage wäre, sie sinnvoll anzuwenden. (Unter "Roboter" müssen wir heute jede Form von fortgeschrittener künstlicher Intelligenz verstehen - den Begriff gab es noch nicht als Asimov die Gesetze beschrieben und benannt hatte.)

  1. Ein Roboter darf keinen Menschen verletzen, oder durch seine Inaktivität erlauben, dass ein Mensch verletzt wird
  2. Ein Roboter muss Anweisungen /Befehlen von Menschen Folge leisten, außer es ergäbe sich dadurch ein Konflikt mit dem 1. Gesetz
  3. Ein Roboter muss seine eigene Existenz schützen, solange sich dadurch kein Konflikt mit dem 1. oder 2. Gesetz ergibt

Asimov hat seine Robotergesetze übrigens bereits 1942 in einer Kurzgeschichte beschrieben - und den Rest des Lebens immer wieder aufgezeigt, in welchen Situationen sie nicht funktionieren würden. Diese Gesetze sind sehr einfach, klingend einleuchtend, aber Asimov zeigt in seinen vielen Kurzgeschichten, welche Konflikte und Widersprüche sich in der Praxis daraus ergeben würden.

Weil die Gesetze von Asimov Militärroboter verhindern würden, so wurden als Parodie die folgenden 3 Gesetze für Militärroboter vorgeschlagen. (Auch Polizeiroboter wären mit den Asimov-Gesetzen ja nur begrenzt möglich).

  1. Ein Roboter darf keinen autorisierten Vertreter der Regierung verletzen, wird jedoch alle Eindringlinge unerbittlich vernichten
  2. Ein Roboter muss Anweisungen /Befehlen von autorisierten Vertreter der Regierung Folge leisten, außer es ergäbe sich dadurch ein Konflikt mit dem 3. Gesetz
  3. Ein Roboter muss seine eigene Existenz um jeden Preis schützen, denn ein Roboter ist schrecklich teuer

Das Hauptproblem bei der Implementierung solcher Robotergesetze besteht darin, dass ein Roboter verstehen müsste,

  • was ein Mensch ist (wenn die Roboter so "klug" sind, dass sie diese Gesetze abwägen können, wird es sehr schwierig, bzw. unmöglich für einen Roboter sein, einen seiner "Kollegen" als solchen zu identifizieren. Siehe die Überlegungen zum Turing Test und zum Thema von Bladerunner, wobei es in beiden  "nur" darum geht, dass ein Mensch sein Gegenüber als Maschine erkennt. Für einen Roboter wird es logisch kaum möglich sein, einen anderen Roboter als solchen zu identifizieren, speziell wenn im Konfliktfall dafür nur wenig Zeit dafür zur Verfügung stehen würde. 
  • (eine zu eingeschränkte Definition von "Mensch" wäre natürlich eine Möglichkeit, doch Kriegsroboter zu schaffen. Man braucht dem Roboter nur eine falsche Definition von Mensch zu geben, z.B. bestimmte Rassen oder Sprachgruppen von der Definition "Mensch" auszuschließen)
  • was einem Menschen Schaden zufügt (nicht nur körperlich, sondern auch seelisch oder finanziell)
  • wie er ein seltenes, aber gefährliches Ereignis gegen ein weniger gefährliches, aber häufigeres Ereignis abwägen sollte
  • wie er abwägen sollte, wenn eine kleine Verletzung des ersten Gesetzes einer großen Verletzung des 2. Gesetzes gegenübersteht, z.B. wenn er eine Anweisung erhält, die einen minimalen Schaden, bzw. nur ein kleines Risiko für einen Menschen bedeuten würde
  • wie kann ein Roboter damit umgehen, dass die Menschen ständig riskante Sachen tun, und sei es nur die Überquerung einer belebten Straße. Wenn der Roboter das 1. Gesetz sehr streng interpretiert, muss er das Überqueren einer Straße verhindern
  • was macht er, wenn er 2 sich wiedersprechende Befehle erhält, welchen der Menschen soll er dann als "wichtiger" erachten? Diese Robotergesetze sind nämlich in einem Aspekt sehr ungewöhnlich: Der Besitzer des Roboters hat nicht mehr Rechte als irgendein Fremder, der dem Roboter begegnet und ihm Befehle gibt. Unsere Gesellschaft geht nämlich eigentlich davon aus, dass nur der Besitzer den Nutzen aus einem Gerät ziehen kann.
  • muss der Roboter auch Befehle von sehr kleinen Kindern befolgen oder von psychisch gestörten oder von kriminellen Menschen? Wie kann der Roboter entscheiden, ob der Mensch, der den Befehl gibt, wirklich weiß, was er da anrichtet?
  • wie wägt er ab, wenn er einen Menschen verletzen oder töten müsste, um andere Menschen zu retten?
  • wie kann ein Roboter einen unverbindlichen Wunsch von einem Befehl unterscheiden? ("ich wünschte, die Badezimmertür wäre an einer anderen Stelle."
  • Wie kann man mit der Tatsache umgehen, dass ein Roboter notwendigerweise immer unvollständige Informationen haben wird (so wie wir Menschen ja auch, auch wir können die Konsequenzen unseres Handelns oft nicht abschätzen). Dies könnte ein Mensch ausnutzen, in dem er z.B. einem Roboter sagt, er solle Gift in ein Glass Wasser geben, einem anderen Roboter sagt er dann, er solle das Glas einem Menschen servieren. Keiner der beiden Roboter merkt, dass er gegen das 1. Gesetz verstößt.

Die Website roboethics.org kümmert sich sehr ernsthaft um das Thema Roboter-Ethik:

    “Roboethics is an applied ethics whose objective is to develop scientific/cultural/technical tools that can be shared by different social groups and believes. These tools aim to promote and encourage the development of Robotics for the advancement of human society and individuals, and to help preventing its misuse against humankind.” (Veruggio, 2002)

Der britische Informatiker und Psychologe Noel Sharkey forscht auf dem Gebiet der Künstlichen Intelligenz und des Maschinenlernens und macht sich für Ethik in der Robotik stark, der Link führt zu einem Interview mit ihm. Dort wird auch erklärt, dass wir so eine Roboterethik brauchen werden. Der nächste Abschnitt auf dieser Website stellt mit dem Buch von Nick Bostrom einen möglichen Ansatz dafür vor.

Eine weitere Frage im Zusammenhang mit Robotern und Ethik ist natürlich, was tun eigentlich wir Menschen, wenn die Roboter alle Arbeit übernehmen? Hier einige (ziemlich rohe) Gedanken zu den Themen Arbeit und Arbeitslosigkeit.

Eher ein bizarrer Aspekt von hoch-intelligenten Robotern behandelt ein Artikel in NewScientist: wie sollte man sich persönlich verhalten, wenn Roboter rebellieren und man sein Leben retten muss.

 

 

Nach oben

 

Thomas Wagner: Robokratie Google, Facebook, das Silicon-Valley und der Mensch als Auslaufmodell.
Mehr dazu siehe Text links. Im Netz ist auch ein fast 2-stündiger Vortrag von Thomas Wagner: „Robokratie“ Mensch und Demokratie als Auslaufmodelle?. Und auf meiner anderen Website beschreibe ich die Konzepte von Thomas Wagner zur möglichen Gegenwehr gegen die Kontrolle der sozialen Netze durch die US-Konzerne durch politische Maßnahmen.

Ebefalls sehr lesenwert ist Evgeny Morozov: To save everything click here (das ich auf meiner anderen Website zum Thema Informationssicherheit beschreibe). Morozov schreibt ebenfalls gegen die Technologiegläubigkeit des "Silicon Valley", wo man glaubt, alle Probleme der Welt liesen sich durch weniger Demokratie und mehr Technologie lösen.

Müssen wir Angst haben vor der Machtübernahme durch eine Artificial Intelligence?

Gefährliche Ansätze bei der US-Technologie-Elite

2015 mehreren sich die kritischen Stimmen die besagen, dass wir mit den Entwicklungen zu künstlicher Intelligenz evt. auf dem Weg des Zauberlehrlings aus dem Gedicht zu sein. Z.B. Jan. 2015 Experten warnen vor dem Aufstand der Maschinen.

Einen ausführlichen Hintergrundbericht über die Ideologie viele der Förderer von künstlicher Intelligenz antreiben gibt Thomas Wagner in "Robokratie". Das lesenswerte Buch zeigt die Geschichte von AI seit dem 2. Weltkrieg auf, wie stark diese Forschungen mit dem Militär verknüpft ist und wie die Weltanschauung der Milliardäre (und viele der Entwickler) in Silicon Valley aussieht: Stichwort "Technologie löst alle Probleme die die Politik nicht (oder falsch) löst". Und die Gleichheit aller Menschen sei überbewertet, die Zukunft seien unsterbliche Übermenschen, die auf der Basis von künstlicher Intelligenz entwickelt werden.

Beunruhigend daran ist, dass man das leider nicht als dummes Geschwätz abtun kann. Die Übermensch-Fantasien z.B. eines Ray Kurzweils könnten durchaus implementierbar sein. Ray Kurzweil ist nämlich mittlerweile Forschungschef von Google, und Google ist sehr aktiv auf diesem Gebiet. D.h. die Befürworter sitzen durchaus an einflussreichen Stellen. So ist z.B. Google heute durch die vielen Zukäufe der weltweit größte Hersteller von Nicht-Industrie-Robotern (viele der am Anfang beschriebene Firma Boston Dynamics gehörr heute zum halb-geheimen Google X, ebenso wie Redwood Robotics, Meka Robotics und Jetpac). Google X betreibt auch Forschungen zu Computational neuroscience, Health care und Biotechnology (z.B. Calico mit dem Ziel der Lebensverlängerung).

Und Google ist nicht die einzige Firma, die diese gesellschaftliche Agenda vorantreibt. Viele der Silicon Valley Firmen haben heute Abteilungen für AI-Forschung und wetteifern bei diesen Forschungen. Wagner beschreibt die firmenübergreifenden Aktivitäten der Singularity University und Machine Intelligence Research Institute. Auch wenn diese Firmen und Institute die Unsterblichkeit vielleicht nicht hin bekommen, bei der Schwächung der Demokratie und Machtübernahme durch die Technologie-Eliten und beim Abbau unserer Privatsphäre durch ihre "Sharing-Ideologie" machen sie jedoch auf jeden Fall gute Fortschritte.

Mehr zu den neuen Feudalherrn des Internets und ihren Geschäftsmodellen "kostenlose Dienste gegen unsere volle Transparenz" findet sich auf meiner anderen Website.

Neue Ansätze zu besseren Robotergesetzen

Nick Bostrom:
"Superintelligence - Paths, Dangers, Strategies"

Eine Besprechung dieses Buches findet sich im Haupttext links von diesem Block.

Hier der Link zu einer etwas anderen Position: eloquent dargestellt bringt der Vortrag von Maciej Ceglowski: Web Design: The First 100 Years. Dabei geht es nicht um Grafik-Design, sondern die Zukunft des Internets und vor allem darum, dass wir dazu neigen, den technischen Fortschritt zu überschätzen.

Der nächste Link führt zu einem Artikel im Spiegel zum Thema Ende der Menschheit durch Super-Intelligenz. Dieser Artikel bezieht sich hauptsächlich auf das Buch von Nick Bostrom. (Nick Bostrom hängt übrigens auch mit den Firmen und Instituten im vorigen Abschnitt zusammen, auch wenn er Professor in Oxford ist).

Nick Bostrom: "Superintelligence - Paths, Dangers, Strategies" ist eine sehr komplexe und umfassende Abhandlung über die theoretische Ansätze, eine Superintellegenz irgendwie zu zügeln (Superintellegenz ist hier definiert als ein "Ding", das vieltausendmal cleverer/intelligenter ist als alle Menschen). D.h. es geht irgendwie um eine Neufassung der Robotergesetze von Asimov (siehe oben).

Kurze Zusammenfassung: es ist sehr schwer und fraglich ob der Menscheit das wirklich gelingen kann. Bostrom hat aber (zusamen mit Eliezer S. Yudkowsky) zumindestens einige Ideen. Kernpunkt ist, dass die Entwickler letztendlich nur Vorgaben machen können und dass die eigentliche Entwicklung dieser Regeln für Roboterethik von der Superintelligenz selbst entwickelt werden müssen. Dafür müssen die Entwickler geeignete Rahmen vorgeben. Die Ansätze dazu werden unter den Schlagworten "Coherent Extrapolated Volition", "Moral Rightness" und "Moral Permissibility Model" zusammengefasst. (Warnung: das Buch ist nicht einfach zu lesen, der Autor ist Physiker und Philosoph mit mathematischer Ausbildung - einen Vorgeschmack gibt der Text zu ethischen Fragen rund um Super-Intelligenz -Nick Bostrom, Eliezer Yudkowsky: THE ETHICS OF ARTIFICIAL INTELLIGENCE).

Ende 2015 haben sich viele der Billionäre in Silicon Valley zusammengetan und unter dem Namen OpenAI ein Forschungszentrum für künstliche Intelligenz gegründet. Das passt sehr gut zu der Ideologie die in "Robokratie" beschrieben wird: Wir vertrauen der Politik eh nicht, dass sie die Welt für einer Fehlentwicklung auf dem Weg zur Superintelligenz retten wird, wir nehmen das mit unserem vielen Geld selbst in die Hand.

Roman Yampolskiy: Artificial Intelligenze
Dieses Buch klingt auf den ersten Blick weniger schwierig als das von Nick Bostrom - ich habe es aber noch nicht gelesen.

Ein weiteres Buch zum Thema kommt von Roman V. Yampolskiy, Direktor des Cybersecurity Lab in Louisville, KY. Sein Buch "Artificial Superintelligence: A Futuristic Approach" wird in diesem Artikel besprochen: AI gone wrong: Cybersecurity director warns of 'malevolent AI'. Der Link verweist auf eine Zusammenfassung. Dieses Buch ist allgemeiner gehalten und verweist z.B. auch auf die Gefahren durch "gehackte" Waffensysteme, intelligente Robot-Soldaten, u.ä. Das Bostrom-Buch konzentriert sich vor allem auf die extrem schwierige Frage, wie wir einer solchen Intellenz Werte einprogrammieren können, die nicht zu einer Machtübernahme führen.

Im Prinzip sind wir dann in einem ähnlichen Dilemma, wie ich es bei den Roboter-Gesetzen von Asimov weiter oben erklärt habe: wann immer wir versuchen, unsere Vorgaben ganz konkret in Nullen und Einsen darzustellen scheitern wir daran, dass das Leben so komplex ist, dass wir auf sehr große Schwierigkeiten stoßen. Egal was wir einer solchen Maschine als Ziel geben, immer besteht z.B. die Gefahr, dass die Maschine schon um dieses simple Ziel sicher zu erreichen, große Teile der Resourcen der Erde für sich beanspruchen möchte.

Dies ist auch eine der Gefahren im Buch von Yampolskiy: "Taking over (implicit or explicit) resources such as money, land, water, rare elements, etc. and establishing a monopoly over access to them."

Hier jetzt Links zu 2 Studien die die Machtübernahme durch eine künstliche Intelligenz nur als eines von mehren Endzeit-Szenarien für die Menschehit sehen: die erste Studie ist vom gleichen Autor, dem Philosophen Nick Bostrom: Existential Risks - Analyzing Human Extinction Scenarios and Related Hazards. Er unterscheidet 4 Klassen, von der Big Bang-Katastrophe bis zu Szenarien, bei denen den Menschen die Resourcen ausgehen oder auch die, bei denen eine Artificial Intelligence geschaffen wird, die andere Prioritäten hat als ihre Schöpfer.

Dieser Artikel beschreibt eine umfangreiche Studie über "12 Risks that threaten human civilisation" (200 Seiten). Eine der Risiken ist die Machtübernahme durch eine Artificial Intelligence. Hier eine kritische Zusammenfassung: Apokalypse, wissenschaftlich.

Zum Abschluss dieses Teil jetzt noch ein Link zu einem Forscher der keine Angst vor der Machtübernahem durch AI hat: "Why robots still need us: David A. Mindell debunks theory of complete autonomy". MIT Professor David A. Mindell sieht eine weitgehend positive Zukunft mit AI-Systemen, er glaubt nicht mal daran, dass es autonome Fahrzeuge auf unseren Straßen geben wird (und das macht mich wiederum skeptisch seinen Ansichten gegenüber, denn ich denke, autonome Fahrzeuge werden auf jeden Fall kommen).

 


 

Auf einer anderen Seite meiner Website behandele ich das Thema Turing Test und wieder wo anders auf Englisch eine Geschichtliche von Computern, Robotics und Artificial Intellegence

Nobert Wiener, in 1949, über die Zukunft mit Computern und Robotern (Auszüge):

The Genie and the Bottle (Norbert Wiener)

    These new machines have a great capacity for upsetting the present basis of industry, and of reducing the economic value of the routine factory employee to a point at which he is not worth hiring at any price. If we combine our machine-potentials of a factory with the valuation of human beings on which our present factory system is based, we are in for an industrial revolution of unmitigated cruelty.
    We must be willing to deal in facts rather than in fashionable ideologies if we wish to get through this period unharmed. Not even the brightest picture of an age in which man is the master, and in which we all have an excess of mechanical services will make up for the pains of transition, if we are not both humane and intelligent.
    Finally the machines will do what we ask them to do and not what we ought to ask them to do. In the discussion of the relation between man and powerful agencies controlled by man, the gnomic wisdom of the folk tales has a value far beyond the books of our sociologists.
    There is general agreement among the sages of the peoples of the past ages, that if we are granted power commensurate with our will, we are more likely to use it wrongly than to use it rightly, more likely to use it stupidly than to use it intelligently. [W. W. Jacobs’s] terrible story of the “Monkey’s Paw” is a modern example of this — the father wishes for money and gets it as a compensation for the death of his son in a factory accident, then wishes for the return of his son. The son comes back as a ghost, and the father wishes him gone. This is the outcome of his three wishes.
    Moreover, if we move in the direction of making machines which learn and whose behavior is modified by experience, we must face the fact that every degree of independence we give the machine is a degree of possible defiance of our wishes. The genie in the bottle will not willingly go back in the bottle, nor have we any reason to expect them to be well disposed to us.
    In short, it is only a humanity which is capable of awe, which will also be capable of controlling the new potentials which we are opening for o

     

     

 

Nach oben

 

Roboter aus Fleisch und Blut und fließende Übergänge

Im New Scientist erschien bereits ca 2005 ein Artikel über den ersten "Robot" der mit richtigen Muskelzellen arbeitet ("Micromachine grows its own muscles"). Dies geht davon weg, dass Roboter immer nur aus Metall, Plastik und Motoren bestehen müssen. Die Verwendung von richtigem Gewebe hat durchaus Vorteile (siehe auch die Roboter in "Bladerunner".

Ähnliche, jedoch etwas andere Problematiken ergeben sich in der anderen Richtung, wenn nämlich immer mehr künstliche Teile (Prothesen) in Menschen eingebaut werden. Das werden nämlich in Zukunft immer öfter "intelligente" Prothesen sein.

Alan Goldstein, ein Professor für Biomedical Materials Engineering Science ist beunruhigt über das, was seine Disziplin in der Zukunft aus dem Menschen machen wird. Er sieht eine zwangsläufige Entwicklung zum immer mehr Veränderungen in den Menschen. Er fragt, gibt es denn jemand in der westlichen Welt, dessen Körper nicht z.B. durch Zahnkronen, Kontaktlinsen oder zumindestens durch Impfungen technisch "verbessert" wurde. Diese Entwicklung, mit der er sich hauptberuflich beschäftigt, ist bereits sehr weit fortgeschritten. Es gibt um die Implementierung von Materialien in die Körper der Menschen, erst mal nur zu Heilungszwecken, aber er bezweifelt, dass die Möglichkeiten zur Verbesserung von Körperfunktionen nicht auch genauso bereitwillig genutzt werden. Sie gibt es heute bereits Menschen, die ihre Sehstärke mit Hilfe von Lasertechnologien die eigentlich für die Behandlung von Sehfehlern entwickelt wurde, weit über das für Menschen übliche Maß hinaus verbessern.

Goldstein berichtet von Entwicklungen, bei denen mit Hilfe einer Technik Biomimetics an der Oberfläche von Implantierungen, z.B. bei Arterienverengungen, Eiweißmoleküle aufgebracht werden, die eine Abstoßung verhindern und andere Stoffe, die sich langsam im Körper auflösen und z.B. eine Vernarbung verhindern sollen. Das heißt, nicht-biologische Implantierungen werden bereits mit biologischen, wie Eiweißen, kombiniert. D.h. es werden Menschen geschaffen, die aus einer Kombination von biologischen und nicht-biologischen Stoffen bestehen. Und das nicht nur zu Heilungszwecken, sondern immer öfter auch zu "Verbesserung" unserer Biologie. Wenn das Herz schwach ist, wer würde es ablehnen, wenn dann eine Prothese eingesetzt würde, die besser als das Original ist und ein 30 Jahre längeres aktives Leben ermöglicht?

Und diese Implantierungen müssen durchaus nicht passiv sein, ein Herzschrittmacher ist ein sehr aktives Gerät. Mehr und mehr wird "Intelligenz" in diese Geräte eingesetzt, z.B. Implantierungen, die den Zuckergehalt im Blut messen und das Insulin entsprechend dosieren. Der Leistungssport wird es sich auf keinen Fall verkneifen können, diese Möglichkeiten, legal oder weniger legal, zu nutzen. Ab wieviel Verbesserungen wird man aufhören, von Menschen im herkömmlichen Sinne zu sprechen?

Hier der Link zur Behandlung ähnlicher Themen unter dem Stichwort Artificial Life.

 

 

Nach oben

 

Verwandte Themen

Zum Abschluss noch ein paar lustige Roboterfiguren als Kunstwerke (zum Verkauf), aus Abfällen hergestellt.

 




Philipp Schaumann, http://philipps-welt.info/

Philipps-Welt

Copyright-Hinweis:
Das Copyright des Materials auf diesen Webseiten liegt, falls kein anderer Autor genannt wird, bei Philipp Schaumann. Creative Commons License
Diese Texte sind lizensiert unter der Create Commons Attribution-Noncommercial-Share Alike 2.0 Austria Lizenz. Natürlich gelten auch die Regeln des Fair Use und über Ausnahmen bzgl. der Lizenz kann jederzeit mit den Autoren gesprochen werden.