Home      Webmaster      
Link-Konventionen:
Fette Links öffnen ein fremde Seite in einem neuen Fenster
Blau hinterlegte Links bleiben auf der sicherheitskultur.at

 

Themenübersicht Roboter

 

Autor: Philipp Schaumann - Letzte Aktualisierungen Nov. 2014

Dez. 2013:
Ein beeindruckendes Video des japanischen Roboters SCHAFT (die Firma wurde vor kurzem von Google gekauft) im DARPA Wettbewerb Ende 2013. Dabei ging es genau um Probleme, für die in Fukushima die Roboter gefehlt haben (siehe "Der große Roboter-Bluff" etwas weiter unten). Dieser Roboter kann Treppen steigen, Hindernisse wegräumen, Türen öffnen, Ventile öffnen und schließen, Schläuche anschließen und ähnliche Rettungsaufgaben.

Für mich eher unerwartete Effekte der Roboter die bereits im Einsatz sind: Mähroboter nerven im Gegensatz dazu potentiell den ganzen Tag.

Vermutlich kann man sie auch so einstellen, dass sie nur dann mähen wenn die anderen Nachbarn auch unterwegs sind, aber evtl. haben wir hier das gleiche Problem wie bei den (früher) endlos 00:00 blinkenden Videorecordern, weil die Umstellung der Zeit so mühsam ist.

Juli 2013:
Das Atlas-Program in den USA versucht mehr Bewegung in die Entwicklung eines humanoiden Roboters zu bringen. Dafür wurde (finanziert durch das US-Verteidigungsministerium) eine sog. Test-Platform geschaffen, d.h. eine Konstruktion mit 2 Armen und 2 Beinen in Menschengröße die eine Beweglichkeit hat, die der menschlichen entspricht. Jetzt sind mehrere Universitäten aufgefordert, für diese Konstruktion entsprechende Software zu entwickeln. Der Artikel verlinkt auf recht beeindruckende Videos.

Dez. 2012:
Der Autor des Artikels in der Futurezone "Der große Roboter-Bluff" bemerkt (wie auch andere vor ihm), dass sehr auffällig ist, dass zwar seit 10 Jahren der Einsatz von Robotern in Katastrophensituationen beworben wird, aber in Fukushima dann keine zur Verfügung standen und die Menschen ihr Leben und ihre Gesundheit weiterhin riskieren mussten.

Auf Youtube findet sich eine detaillierte Antwort im BBC Film How Robots Will Change the World (40 min). Das Problem scheint zu sein, dass keiner der bisherigen Roboter in der Lage ist, Hindernisse zu überwinden, der berühmte Honda Roboter Asimo ist extrem agil, aber nur auf glattem Boden. Der Film bringt viele Beispiele zum Stand der Robotertechnik 2013.

AlphaDog von Boston Dynamics, trägt 180 kg in schlechtem Gelände, folgt dem Soldaten auf dem Fuß - hier dargestellt in einem Video, inkl. eines Absturzes in einen Bach, aus dem er allein wieder rauskommt. Von der gleichen Firma gibt es ein weiteres Video aus dem Jahr 2013: 25 km/h: Roboter-Wildkatze in freier Wildbahn getestet

Mai 2012: Robots go to war
Im Economist (Robots go to war) werden für 2012 wilde Konstruktionen beschrieben: ein kleiner Aufklärungsroboter der 9 Meter hoch springen kann, z.B. auf ein (flaches, südländisches) Hausdach. 2 andere Konstruktionen sind zum Werfen gedacht, eine davon sogar durch Glasfenster hindurch. Wiederum ein anderer ist für das Wasser konstruiert, er kann mittels Magneträdern an Schiffswänden hochklettern und so aufs Deck gelangen.

Dagegen sind selbstfahrende Fahrzeuge und Packesel die bis zu 180 kg Gepäck tragen schon fast alte Hüte. Auch bei winzigen Aufklärungsflugzeugen gibt es große Fortschritte, z.B. kleine Libellen mit eingebauter Kamera.

Der Artikel im Economist weisst aber auch auf potentielle Probleme hin, wie z.B. dass Regierungen schneller bereit zu Angriffen sind wenn sie keine eigenen Soldaten riskieren müssen. Ein Beispiel dafür ist der amerikanische Einsatz von tödlichen Drohnen in bisher 15 Ländern der Welt.

Nov. 2014:
Ein Artikel in der NYT Fearing Bombs That Can Pick Whom to Kill über intelligente Systeme die sich ihre Ziele selbst aussuchen. Kein Science Fiction mehr: "Britain, Israel and Norway are already deploying missiles and drones that carry out attacks against enemy radar, tanks or ships without direct human control." Diese Waffen wurden bereits aktiv eingesetzt, z.B. von Großbritannien im Libyen-Konflikt.

 

 

 

Roboter und ihre Geschichte

Wenn wir über Roboter reden, so meinen wir meist androide Roboter, d.h. Roboter, die wie Menschen aussehen. Das muss ja durchaus nicht so sein, wie das Heer der Industrieroboter zeigt, ohne die heute keine Automobilproduktion stattfindet. Roboter in Menschenform haben Vorteile (sie kommen überall da gut zurecht, wo sie eine Umgebung haben, die für Menschen entwickelt wurde), aber sie werfen auch viele Probleme auf. Da wäre z.B. die Schwierigkeit, sich auf 2 Beinen zu halten. Sie werfen aber auch psychologische Probleme für ihre Umgebung auf, mehr dazu weiter unten.

Es ist interessant, sich die Geschichte der Idee und des Begriffs Roboter anzusehen. Ein guter Artikel dazu hier von Roger Clarke. Er erklärt, dass die Idee eigentlich schon sehr alt ist. Sie hat zwei getrennte Ursprünge- Humanoide, das sind nicht-lebende Objekte die wie Menschen aussehen und Automaten. Bereits in der Ilias von Homer gab es Humanoide in der Geschichte der Pandora. Automaten (d.h. Maschinen, die selbstständig etwas ausführen) haben die Menschen schon immer fasziniert und waren schon bei den Griechen bekannt. Wichtig bei ihrer Geschichte sind die Entwicklungen rund um Uhrwerke, die hauptsächlich zur Unterhaltungszwecken eingesetzt wurden.

Dunkle Aspekte wurden 1818 in Mary Shelley's Frankenstein zum Thema. Es geht um die Erschaffung eines menschenähnlichen Lebewesens. Damit wurde eine ganz literarische Tradition begründet. Der Begriff Roboter kommt aus dem Tschechischen und bedeutet jemand, der Zwangsarbeit ausführen muss. Hintergrund ist ein Theaterstück "R.U.R" von Karel Capek aus dem Jahr 1918, in dem die Firma R.U.R. (Rossums's Universal Robots, auf biologischen Weg Zwangsarbeiter schafft, die aber dann rebellieren und die Menschheit vernichten. Das ist natürlich genau das Thema, das dann bei Matrix wieder die Hauptrolle spielt. Ebenfalls stark negativ besetzt sind die Kunstwesen wie Frankenstein oder der Golem (aus der jüdischen Folklore, ein künstlich erzeugter Mensch, durch kabbalistische Rituale zum Leben erweckt).

Der Science Fiction Schriftsteller Isaac Asimov begann dann 1940 den Begriff Robot in einer positiveren Zusammenhang mit Maschinen zu sehen. Er sagte: "meine Roboter waren Maschinen, entworfen von Ingenieuren und nicht Pseudo-Menschen, geschaffen von Gotteslästerern". Er entwarf zusammen mit dem Science Fiction Schriftsteller John W. Campbell die 3 Roboter-Gesetze, die sicherstellen sollen, dass die Maschinen keinen Schaden anrichten können, mehr dazu weiter unten.

Zum Anlass des Films "I Robot" gibt es einige gute Artikel in Wired zum Thema Roboter und Isaac Asimov (mit einer Reminiszenz an Roboter der Filmgeschichte, u.a. zurück bis zur Maria in Metropolis) (siehe dazu auch movie-monsters)und dem derzeitigen Stand der Robotertechnologie

Hier ein Link zur Website Androidworld (englisch) und dann noch ein Link zu New Scientist, wo ein Artikel über den ersten "Robot" erschienen ist, der mit richtigen Muskelzellen arbeitet. Dies geht davon weg, dass Roboter immer nur aus Metall, Plastik und Motoren bestehen müssen. Die Verwendung von richtigem Gewebe hat viele Vorteile (siehe auch die Roboter in "Bladerunner", in der Sektion Literatur).

 

Und hier ein Link zu einer anderen eher spielerisch anmutenden Disziplin Kämpfe zwischen Robotern. Ähnliche Aktivitäten, aber offensichtlich deutlich brutaler, werden in den USA (Stichwort: BattleBots) veranstaltet, jedoch müssen diese Roboter nicht zweibeinig sein, kommen in allen Formen und Arten und haben die Zerstörung des Gegners zum Ziel.

Verena Hafner hat auf dem CCC im Dez. 2005 einen interessanten Vortrag zu Geschichte der Roboter gehalten, mit vielen Bildern (pdf, 1,2 MB). Wired hat einen interessanten Artikel zu 50 Best Robots Ever.

 

Hier der Link zu einem Interview aus dem Jahr 2014 zur Problematik des Robotereinsatzes im Krieg: "Autonome Waffensysteme werden schleichend eingeführt"

Eine für meinen Geschmack unschöne Entwicklung sind die Kampfroboter, die mit Maschinengewehren ausgerüstet sind und derzeit noch nicht autonom eingesetzt werden, sondern nur über eine Fernsteuerung. Aber der Artikel im NewScientist, zitiert die Entwickler, die das nur als Übergangsschritt sehen.

Pentagon's Office of Naval Research (ONR) wants to engineer mobile robots to "understand cooperative and uncooperative" people, and inform their operator if they seem a threat. It hopes to do this using artificial intelligence software fed with data from a "remote physiological stress monitoring" system, and by using speech, face and gesture recognition. From this it would draw inferences about the threat that person poses.

 

2007:
In Irak sind mehr und mehr Roboter in den Einsätzen beteiligt. Die Washington Post nimmt dies zum Anlass, um über die starke emotionale Bindung zwischen den Soldaten und ihren Robot-Maschinen zu berichten. Weiter unten auch mehr zum emotionalen Verhältnis zu Robotern.

 

Mai 2008:
Das US Pentagon schreibt in einer Studie, dass bereits 2015 ein Drittel der Bodenfahrzeuge unbemannt sein sollen und ein Drittel der Angriffsflugzeuge bereits 2010. Hier der Artikel und Fotobericht über Robots of War. Ein beeindruckendes Beispiel für den Stand der Robottechnologien bietet dieses Video eines Vierfüßler-Robots.

Hier der Wikipedia Eintrag zu SWORDS (Special Weapons Observation Reconnaissance Detection System).

Fliegende Quadrocopter an der ETH Zürich
Quelle: Flying Machine Arena

 

Dez. 2010:
Ein ziemlich fundierter Artikel in der NY Times diskutiert den immer stärker werdenden Einsatz von Robotern im Iran und Afghanistan: War Machines: Recruiting Robots for Combat. Der Einsatz betrifft derzeit hauptsächlich Geräte die nur halb-autonom sind, d.h. sie werden von einem Soldaten gesteuert der über eine Video-Verbindung sehen kann, was der Roboter "sieht". Der Trend geht jedoch immer mehr auch zu autonomen Systemen und die werfen eine ganze Reihe von juristischen und ethischen Problemen auf, z.B. wenn die Entscheidung Zivilist oder Feind einem Computer überlassen wird. Hier ein Bildbericht New Generation of Robotic Wepapons aus der NY Times.

creepyrobots.tumblr.com ist eine Website mit vielen Filmbeispielen zu Robotern im Einsatz, oft durchaus beängstigende Filme.

 

April 2011:
Wirklich toll anzuschauen: Faszinierende Videos von Robot-Hubschraubern (Quadrocopter mit 4 Rotoren) die an der ETH Zürich entwickelt werden, extrem beweglich sind und auch kooperieren können. Sie können sogar Bälle jonglieren.

 

 
Klick führt zu qrio
QRIO von Sony - Details mit Klick auf das Foto
AIBO von Sony

Nach oben

 

Androide oder nicht-androide Roboter - wie Verhalten sich die Menschen?

Humanoide (d.h. androide, menschenähnliche) Roboter, die wirklich auf 2 Beinen laufen und sich visuell in der normalen Umwelt orientieren können sind eine ganz andere Herausforderung. Einmal technisch, zum anderen auch von der Akzeptanz, über die viele Science Fiction Bücher geschrieben wurden.

Dass humanoide Robotor am leichtesten über das Kinderzimmer in unser Leben akzeptiert werden würden, hat Sony schon vor einigen Jahren erkannt und sich auf den Hund Aibo und jetzt den Spielzeugroboter Qrio (sehr schön der Film als Dirigent)konzentriert. Schon bei Aibo hat mich die Perfektion der Bewegungen begeisert und Qrio ist noch ein Stück besser. Durch das Rührende, das die Bewegungen des Hundes haben und durch die "süße" Größe von Qrio werden die Erinnerungen an Kunstwesen wie Frankenstein oder den Golem gar nicht erst geweckt. Auch sehenswert ist der Asimo von Honda.

Klick führt zu electrolux
Trilobite von Electrolux- Details mit Klick auf das Foto

Den nächsten Schritt zum akzeptierten Roboter im Haushalt geht dann wohl vom Kinderzimmer in die Küche, bzw. zu Hausarbeiten. Schon seit einigen Jahren gibt es eine Reihe von Staubsaugrobotern (wobei es heute Konkurrenzprodukte

Robosapien
mit mehr Saugleistung für deutlich weniger Geld gibt, z.B. den Roomba Red), bzw. zum Rasenmähen, die derzeit aber alle noch nicht humanoid sind. Die humanoide Form wird aber für Arbeiten in der Küche notwendig sein, da Kücheneinrichtungen nun mal für humanoide Formen optimiert sind.

Ein neuer Spielzeugroboter (Ende 2004) ist der Robosapien. Das besondere daran ist nicht, dass er viel kann (er kann erheblich weniger als Aibo und Qrio), aber er kostet auch nur 99 Euro (statt 1900 für den Aibo). Der Grund dafür und die Geschichte des Spielzeugs wird ausführlich in einem NY Times Artikel erklärt (kostenpflichtig). Der Roboter wurde nämlich von einem amerikanischen Ingenieur Mark Tilden nach einem viel einfacheren Konzept entwickelt als die anderen Spielzeug-Robots: Analog-Technik statt Digital-Technik. Robosapien hat z.B. nur 7 Motoren und nur 12 KB programmierbaren Speicher. Das bedeutet, dass er nicht wirklich frei programmierbar ist, sondern nur fest eingebaute Bewegungen kennt (14 offizielle und weitere 28, die nicht im Manual dokumentiert sind), nicht sehen kann, nicht sprechen kann (nur Geräusche). D.h. im Gegensatz zu den anderen erwähnten Robots ist der Robosapien wirklich ein Spielzeug und eigentlich keine Robotplatform zur freien Programmierung. Allerdings gibt es natürlich Leute, die trotzdem Erweiterungen (Hacks) einbauen können. Eine recht gute Beschreibung des Konzepts findet sich übrigens auf der amazon website. Mark Tilden betont jetzt, dass der Robosapien gar nicht so schlecht für Erweiterungen geeignet ist: "A single screwdriver takes the RS apart and inside everything is labeled, color-coded and socketed for convenience". Fotos vom Robosapien im Fußballturnier auf der o.g. Website von Verena Hafner.

RoboMow RL 800
RoboMow, der Rasenmäher

Außer bei den Staubsaugern gibt es kommerzielle Roboter im Haushalt auch in der Form von Rasenmähern, z.B. den RoboMow RL 800 oder den Automower. Dazu gibt es die nette Anekdote, wo sich der Rasenmäher nach vielen Jahren erfolgreichen Mähens dann eines Tages in den Gartenteich gestürzt hat, den er bis dahin immer erfolgreich vermieden hatte. Dies war von den Besitzern als Selbstmord interpretiert worden, evt. hatte sich doch eine Psyche eingestellt, der die langjährige Monotonie zu viel wurde. ;-)

Klick führt zu Artikel
Klick führt zum Artikel
Ein deutschsprachiges Diskussionsforum zu Robotern gibt es bei roboternetz.de und interessante Infos zu humanoiden Robots (einschließlich eines APIs für Robotsapien) gibt es bei der Uni Freiburg.

Noch ein überraschender Zugang zur Welt der Roboter: Lego. Mit ihrer Serie Mindstorms bieten sie Bausätze an, zu denen es mittlerweile über 40 Bücher und eine ganze Reihe von Programmiersprachen und Softwarepakete, nicht nur von Lego selbst, gibt. Hier eine Besprechung in Forbes Maqazin.

 

Emiew von Hitachi

Auf dem Gebiet der humanoiden Roboter tut sich derzeit (Ende 2004, Jan 2005) einiges. Die BBC berichtet im Februar 2005 von 3 Entwicklungen bez. effektivem Gehen, nämlich "passive dynamics". Dabei geht es darum, dass der Roboter, so wie die Menschen, den Schwung des einen Schritts für den nächsten Schritt ausnutzt. Eine Effektivitätserhöhung von Faktor 10 beim Energieverbrauch war damit möglich.

Derzeit (März 2005) tut sich sehr viel bei den Robotern. Hitachi hat den 130 cm großen Emiew vorgestellt, der auf 2 Rädern balanciert und dadurch bis zu 6 km/h schnell sein kann. Eine durchaus intelligente Lösung für das Problem der Fortbewegung. Geplant ist der Roboter wohl als Bürobote, er hat einen Wortschatz von 100 Worten (die er auch versteht), weicht Hindernissen aus und kann Händeschütteln. Ein Leserbriefschreiber im Wiener Standard bemerkt dazu, dass ein Roboter der 100 Worte kann und Händeschütteln bereits ausreichend qualifiziert wäre, dass er auch als Politiker eingesetzt werden kann.

Das unheimliche Tal (Quelle Wikipedia

Geniale Beweglichkeit (hinlegen, aufstehen, Rolle rückwärts) zeigt der Nuovo von einer Firma ZMP in Japan. Dieser kleine Robot ist ausdrücklich dafür gedacht, bei der Hausarbeit zu helfen. Kosten ca. 7000 $.

Das unheimliche Tal (Uncanny Valey)

Von einem "unheimlichen Tal" spricht man, wenn es um die Akzeptanz von Robotern oder Avatare durch Menschen geht. Dabei zeigt sich ein eigenartiger Effekt: Auf dem Web von einem sehr künstlich aussehenden Roboter oder Avatar (z.B. C-3PO aus Starwars) hin zu einem immer engeren Antropomorphismus (Menschenähnlichkeit) gibt es ein Tal, bei dem die schon recht menschenähnlichen Objekte unheimlich auf die Betrachter wirken. Ein sehr viel tiefer gehender Deutungsversuch findet sich auf der engl. Wikipedia zum Uncanny Valley.

Genau dieses Konzept der Unheimlichkeit wurde übrigens bereits 1906 von dem Deutschen Psychologen Ernst Jentsch entwickelt: "Zur Psychologie des Unheimlichen" und dann erst 1070 von dem japanischen Roboter-Wissenschaftler Masahiro Mori weiterentwickelt.

In ähnliche Effekte kommt 2012 die Werbe-Industrie. Sie entdecken, dass über Behavioural Targetting so viele Informationen über Konsumenten gewonnen werden können, dass es zu dem gleichen Gruseleffekt kommt.

Jan. 2013:
Ein Artikel im New Scientist (leider nur für Abonennten) beschreibt neue Forschungen zum Uncanny Valley mit der Zusammenfassung:

    . . . almost lifelike robots make us feel uneasy because we see in them the shadow of a human mind, but one that we know we can never comprehend. In other words, it's not just about our failure to sympathise with uncanny robots and computer-generated characters; it's also about our perception that they can empathise with us.

 

Das Gegenteil des Uncanny Valey: Gefühle für Roboter

Der Pleo Spielzeugroboter

Mai 2013:
Ein interessanter Artikel findet sich (mit einem unzutreffenden Namen) auf der Futurezone. Es geht um Brauchen Roboter Rechte?. Es geht dabei (und den Forschungen über die berichtet wird) eigentlich nicht so sehr um die Rechte von Robotern, sondern um die Gefühle die Menschen sog. Social Robots gegenüber empfinden. Mit Social Robots sind Spielzeuge wie etwa der Dinosaurier-Roboter Pleo, der auf Bewegungen und Geräusche reagiert und sich füttern lässt und kreischt, wenn man ihm am Schwanz hochhebt. Die Forscherin und andere an der Uni Duisburg-Essen haben untersucht wie sich die meisten Menschen gegenüber solchen stark antropomorpen Spielzeugen verhalten (d.h. denen die Menschen menschliche Eigenschaften wie Gefühle zusprechen, wie dies bei Tieren sehr häufig der Fall ist). Hier die Studie: Extending Legal Rights to Social Robots.

Was diese Forschungen aufzeigen sind einseitige emotionale Bindungen, die aber zum Teil recht stark sein können (einseitig, weil die derzeitigen Roboter ja noch weit weit weg von Gefühlen sind, sie können maximal über ihre Algorithmen ein Verhalten zeigen, in das die Menschen dann Gefühle reininterpretieren, daher die Antropromorphismus). Solche Spielzeuge sind zahlreich auf dem Markt und werden zum Teil sogar als therapeutische Werkzeuge eingesetzt. In diesen Tests wurden Personen aufgefordert, diese Maschinen zu quälen oder zu zerstören. Im Gegensatz zu anderen Maschinen wie Toastern erzeugt diese Aufforderung, bzw. der Anblick eines solchen Verhaltens bei den meisten Menschen starken Widerstand. Entsprechende Youtube-Videos erzeugten stark polarisierende Kommentare.

Die Studie berichtet auch vom Einsatz von Robotern beim US-Militär der angeblich abgebrochen wurde weil die beteiligten Soldaten ihn als "inhuman" empfanden. Der Punkt der Forscherin ist, dass es offenbar bei der Mehrheit der Bevölkerung eine Überzeugung gibt, dass "es sich nicht gehört" wenn Roboter gefoltert werden die starke Gefühle bei anderen Menschen auslösen. Sie fragt, ob nicht analog zum Tierschutz auch ein Verbot des Quälens von Social Robots sinnvoll sei. Sie bringt die Analogie zum Tierschutz, weil auch dabei der Schutzgrad unterschiedlicher Tiere hauptsächlich davon abhängt, wie viele Gefühle die Menschen einer Tierart gegenüber aufbringen (wie "süß" die Tiere sind).

Ein weiterer Aspekt ist, dass aufgezeigt werden kann, dass Tierquälerei sehr oft mit häuslicher Gewalt korreliert ist und sie vermutet, dass auch ein Zusammenhang zum "Quälen" von Spielzeug besteht. Sie verweist darauf, dass Kinder traumatisiert werden könnten wenn sie sehen, wie andere diese "lieben" Spielzeuge terrorisieren.

 

Sept. 2013:
Interessanter Artikel in der NYT: How Robots Can Trick You Into Loving Them. In dem Artikel wird beschrieben, wie kleine Änderungen im Verhalten von Robotern dazu führt, dass Menschen sie anders einschätzen. Dabei werden sehr alte Mechanismen ausgenutzt, die uns von der Evolution mitgegeben wurden und die Kinder bereits im Alter von 1 Jahr erlernen.

 

Die Nutzung von Robotern um Beeinflussungen durch andere Menschen zu vermeiden

Feb. 2013:
New Scientist berichtet über einen umgekehrten Effekt: Wenn Zeugen befragt werden, so tritt durch leichte Variationen in der Fragestellung eine deutliche Beeinflussung der Antworten ein. In Experimenten konnte gezeigt werden, dass Zeugen, die einen Film beschreiben sollten, durch entsprechende Fragen Beobachtungen berichteten, die gar nicht im Film waren. Wenn aber wörtlich die gleichen Fragen durch einen Roboter gestellt wurden, so trat dieser Beeinflussungseffekt nicht auf, die Menschen waren immun gegen die Suggestionen.

 

Glaubwürdige Roboter

Aktualisierung Januar 2011:
Ein sehr interessanter Artikel beschreibt wie ähnlich die Problemstellung eines glaubwürdigen Robots ist zu den Herausforderungen, die im Method Acting analysiert werden: HRI: Four Lessons from Acting Method (pdf).

Ebenfalls aus dem Gebiet der Schauspielkunst: Auf der ARS ELECTRONICA 2011 treten Robot-Schauspieler zusammen mit menschlichen Schauspielern auf.

Mai 2011:
In einem interessanten Artikel über intelligente Roboter in der futurezone findet sich eine Theorie warum unterschiedliche Kulturen unterschiedliche Zugänge zu Robot-Technologien haben:

    „Japan und der asiatische Raum waren immer schon vom sozialen Aspekt fasziniert. Das lässt sich allein daran ablesen, dass beinahe alle menschenähnlichen Prototypen der vergangenen Jahre von dort stammen. Der Zugang zur Technlogie ist kulturell und spirituell bedingt ein völlig anderer als in Europa oder den USA“, erklärt Kirchner. Die unbelebte Natur, aber auch Gegenstände würden aus der Tradition heraus eine Daseins- und Eigenberechtigung genießen. Ein Roboter werde folglich auch als mehr empfunden als die Summe seiner Einzelteile, so Kirchner.
    Während also die Frage, ob ein menschenähnlich gestalteter Roboter in der Krankenpflege eingesetzt werden kann, in der japanischen Gesellschaft klar mit einem Ja beantwortet werde, seien die Europäer diesbezüglich viel skeptischer. „Aus europäischer Sicht verfügt eine Maschine wie alle anderen Gegenstände über keinen Geist und kein Ich im übertragenen Sinn. Es handelt sich um ein Ding. Wird es mutwillig zerstört, liegt maximal eine Sachbeschädigung vor“, erklärt Kirchner.
    In der Roboterforschung und der Industrie macht sich dieser Zugang insofern bemerkbar, dass europäische Forschung vor allem mit funktionell ausgelegten Robotern punktet, sei es nun bei Robotermissionen auf dem Mars, in der Tiefsee oder in zerstörten Kraftwerksanlagen. „Unser Zugang ist, dass wir Roboter dorthin schicken, wo es uns zu schmutzig oder zu gefährlich ist. In den USA ist die Herangehensweise sehr ähnlich. Dort gibt es vielleicht noch weniger Skrupel, Roboter auch zu militärischen Zwecken einzusetzen“, sagt Kirchner.

 

 

Nach oben

 

Ein sehr empfehlens-wertes Buch zum Thema Ethik ist Richard David Precht: Wer bin ich und wenn ja, wie viele?. Eine sehr griffige Einführung in philosophische Themen mit einem ausführlichen Kapitel zu Ethik.

Sehr zu empfehlen als konzentrierte Einführung in das Thema Ethik ist einer der Podcasts von Radiolab in NY. Der Beitrag Morality stellt die Verbindung zwischen jahrtausende-alter Philosophie und den modernen Forschungen zu Ethik dar.

Roboter-Ethik (bzw. Technik-Ethik) - die 3 Robotergesetze von Asimov und viele aktuelle Problemstellungen

 

Viele interessante Links zu Technik-Ethik sind in Inside Google's Mysterious Ethics Board, mit vielen weiterführenden Links zu weiteren Artikeln und insgesamt viele Lesestoff, z.b. zu militärischen Drohnen (dazu auch hier), Pain Rays, Robot Swarms und Biologically Enhanced Soldiers.

Jan. 2014: Als ich diesen Artikel geschrieben hatte (ca. 2004) war das Thema noch sehr sehr abstrakt. Mittlerweile haben wir selbstfahrende Autos und wie Robert Trappl vom Österreichischen Forschungsinstitut für Artificial Intelligence (OFAI) anreißt können sich für diese Steuerung sehr wohl ethische Fragen ergeben (auch wenn die aktuellen Versionen vermutlich nur mit allen Mitteln versuchen werden, den Unfall zu verhindern ohne komplexe ethische Betrachtungen anzustellen). Welche Überlegungen sich dabei ergeben würden, das umreißt z.B. der Podcast von Radiolab zu Morality (z.B. die "railway track" Überlegungen, sehr empfehlenswert).

 

Autonome Fahrzeuge

Autonome Fahrzeuge kommen immer näher und werfen eine ganze Reihe von schwierigen ethischen Fragen auf. Patrick Lin stellt diese sehr gut in The Ethics of Autonomous Cars und The Ethics of Saving Lives With Autonomous Cars Is Far Murkier Than You Think mit vielen weiterführenden Links. Eine sehr schöne Darstellung, welchen "Überblick" über seine Umgebung ein autonomes Google Fahrzeug in komplexen Situationen halten kann, zeigt das Video hier. Kein Mensch kann so vielen Fahrzeuge gleichzeitig im Blick und Bewusstsein haben.

Hier einige Gedanken aus seinen Texten: Diese Autos werden (vermutlich) dramatisch sicherer sein, aber . . .

  • Die Zahl der Unfalltoten wird sinken, aber ziemlich sicher werden ANDERE Personen sterben als früher
  • Frage: rechtfertigt die Reduktion von z.B. 20 000 Toten auf 10 000 Tote, dass jetzt andere Menschen sterben müssen?
  • Frage: Ändert sich die Antwort, wenn die „neuen“ Opfer aus einer anderen Kategorie sind, z.B. mehr Schulkinder, oder mehr Radfahrer, oder . . . ? (vergleiche hierzu: „Licht am Tage“ hatte die Zahl der Toten Autofahrer auf Kosten der Toten Fußgänger reduziert)
  • Der Algorithmus im Auto muss im Zweifelsfall entscheiden, auf welche Weise ein Unfall vermieden werden soll.
  • Szenario 1: das selbstfahrende Auto erkennt, dass ein vollbesetzter Schulbus auf das Auto zukommt, links ist eine hohe Wand, rechts ein Abgrund – wie soll der Algorithmus entscheiden?
  • Szenario 2: das selbstfahrende Auto erkennt, dass ein Wagen mit Teenagern einen Frontalunfall provoziert, weil die Teenager wissen, dass das Auto auf jeden Fall ausweichen MUSS
  • Frage: Falls der Algorithmus utilitaristisch eingestellt ist, sollte es eine Option für den Fahrer sein, ob er bereit ist zu sterben, wenn er dadurch die Teenager retten kann?

Buchhinweis


Kill Decision von Daniel Suarez

Ich habe das Buch (noch) nicht gelesen, aber es geht wohl um einen Krimi rund um die Themen die hier behandelt werden: autonome Roboter in Form eines Drohnen-Schwarms, die terroristische Anschläge durchführen ohne dass der Täter bekannt werden.

 

Killer Robots

An anderer Stelle: Software die tötet - z.B. Drohnen (drones, UAV)

Feb. 2013: Eine sehr interessante Studie behandelt die ethischen und juristischen Fragen rund um "Autonomous Weapons, vulgo "Killer Robots": LOSING HUMANITY - The Case against Killer Robots. Autonomous Weapons sind solche, die selbstständig ihre Ziele aussuchen und dann selbstständig schießen, ohne dass ein Mensch auf einen Knopf drückt, so wie (jetzt noch) bei den Drohnen, den UAVs. Solche Systeme sind keine reine Science Fiction, es gibt bereits "defensive systems", die automatisch, wenn scharf gemacht, versuchen anfliegende Raketen oder Granaten zu entdecken und abzuschießen. Beispiele sind Phalanx bei der US Navy zur Verteidigung von Schiffen, die zu unrühmlicher Bekanntheit kam, weil diese Waffe in den Abschuss eines zivilen iranischen Passagierflugzeugs involviert war. Die US-Army setzte ein ähnliches System zur Verteidigung ihrer Stellungen im Irak ein und die Bundeswehr hat so etwas unter dem Namen NBS Mantis in Afghanistan im Einsatz. Auch das israelische Abwehrsystem Iron Dome muss zu schnell reagieren als dass ein Mensch eingreifen könnte.

Die sehr lesenswerte Studie beschäftigt sich dann mit solchen Systemen die für allgemeine Militäraufgaben vorgesehen sind, die sind bei vielen Armeen in Arbeit. Probleme dabei sind vor allem, dass solche Systeme

  • kaum zwischen Zivilisten und Kombatanten unterschieden können, vor allem wenn Letztere keine Uniformen tragen
  • Schwierigkeiten haben bei der Abwägung, wie viele zivile Tote notfalls in Kauf genommen werden können
  • die Verhältnismäßigkeit eines Einsatzes im Rahmen der kriegerischen Gesamtsituation nicht beurteilen können
  • keine Emotionen haben, d.h. sich auch nicht in spezielle Situationen hineinfühlen können, die einem Menschen sofort klar sind (z.B. Frau rennt schreiend hinter 2 Kindern mit Spielzeuggewehren her, die auf den Soldaten zulaufen)

Als weiteres Problem wird genannt, dass dadurch dass die eigenen Soldaten bei solchen Einsätzen nicht mehr zu Schaden kommen (so wie jetzt schon bei den Drohnen Einsätzen der USA) die Hemmschwelle für den Einsatz in fremden Ländern immer mehr fallen könnte. Auch für Diktatoren, die ihre eigenen Bevölkerung unterdrücken wollen haben Killer Robots große Vorteile gegenüber einer menschlichen Armee, die sich doch manchmal zur Meuterei entschließt.

Ein weiterer problematischer Punkt ist, dass im Falle dass von einem Roboter ein offensichtliches Kriegsverbrechen begangen wurde (z.B. große Menge Zivilisten erschossen), es keine Möglichkeit gibt, jemanden zur Verantwortung zu ziehen. Der Kommandant der ihn losgeschickt hat konnte nicht wissen, dass der Roboter so etwas tun würde (es stand nicht im Datenblatt), der Programmierer der evtl. einen Fehler gemacht hat kann nur bei grober Fahrlässigkeit zur Haftung herangezogen werden und der Roboter kann sowieso nicht sinnvoll bestraft werden.

Problematisch wird in der Zukunft werden, dass in dem Augenblick wo einige Armeen diese Dinge im Einsatz haben, es für die anderen notwendig sein könnte, ebenfalls solche einzusetzen und zwar solche, die noch schneller und noch bedenkenloser schießen als die vom Feind.

Im New Scientist warnt ein Artificial Spezialist davor, dass die Situation um autonome Killer Robots bald außer Kontrolle kommen kann, wenn nicht bald ein Bann dieser Geräte verabschiedet wird: Why we need to stop military killer robots now . Er meint, dass für die Regierungen so viele (auch ökonomische) Gründe für deren Einsatz sprechen, dass die damit vermutlich verbundenen Opfer in der Zivilbevölkerung dann irgendwann leicht in Kauf genommen werden.

 

Die 3 Robotergesetze von Asimov

Zum Film "I, Robot" wurden die 3 Robotergesetze von Asimov wieder neu diskutiert. Nicht in dem Sinne, dass zukünftige Robots diese wirklich implementieren müssten, sondern als interessante Gedankenexperimente zu Fragen der Technik und der Ethik. Es stellt sich nämlich dabei sehr bald heraus, dass die sehr einfach klingenden Gesetze in der Anwendung so kompliziert erscheinen, dass wohl nur ein Mensch in der Lage wäre, sie sinnvoll anzuwenden.

  • 1. Ein Roboter darf keinen Menschen verletzen, oder durch sein Inaktivität erlauben, dass ein Mensch verletzt wird
  • 2. Ein Roboter muss Anweisungen /Befehlen von Menschen Folge leisten, außer es ergäbe sich dadurch ein Konflikt mit dem 1. Gesetz
  • 3. Ein Roboter muss seine eigene Existenz schützen, solange sich dadurch kein Konflikt mit dem 1. oder 2. Gesetz ergibt

Diese Gesetze sind sehr einfach, klingend einleuchtend, aber Asimov zeigt in seinen vielen Kurzgeschichten, welche Konflikte und Widersprüche sich in der Praxis daraus ergeben würden. Ein (eher satirischer, aber doch ernster) Konflikt ergibt sich z.B. offensichtlich sofort daraus, dass solche Roboter kaum zu kriegerischen Zwecken eingesetzt werden könnten und das Militär hat natürlich ein sehr großes Interesse an intelligenten Maschinen und fördert deren Entwicklung ja sehr aktiv. Als Parodie wurden daher die folgenden 3 Gesetze für Militärroboter vorgeschlagen. (Auch Polizeiroboter wären mit den Asimov-Gesetzen ja nicht möglich).

  • 1. Ein Roboter darf keinen autorisierten Vertreter der Regierung verletzen, wird jedoch alle Eindringlinge unerbittlich vernichten
  • 2. Ein Roboter muss Anweisungen /Befehlen von autorisierten Vertreter der Regierung Folge leisten, außer es ergäbe sich dadurch ein Konflikt mit dem 3. Gesetz
  • 3. Ein Roboter muss seine eigene Existenz um jeden Preis schützen, denn ein Roboter ist schrecklich teuer

Das Hauptproblem bei den wirklichen Robotergesetzen besteht darin, dass ein Roboter verstehen müsste,

  • was ein Mensch ist (wenn die Roboter so "klug" sind, dass sie diese Gesetze abwägen können, wird es sehr schwierig, bzw. unmöglich für einen Roboter sein, einen seiner "Kollegen" als solchen zu identifizieren. Siehe die Überlegungen zum Turing Test und zum Thema von Bladerunner, wobei es in beiden  "nur" darum geht, dass ein Mensch sein Gegenüber als Maschine erkennt. Für einen Roboter wird es logisch kaum möglich sein, einen anderen Roboter als solchen zu identifizieren, speziell wenn im Konfliktfall dafür nur wenig Zeit dafür zur Verfügung stehen würde. 
  • (eine zu eingeschränkte Definition von "Mensch" wäre natürlich eine Möglichkeit, doch Kriegsroboter zu schaffen. Man braucht dem Roboter nur eine falsche Definition von Mensch zu geben, z.B. bestimmte Rassen oder Sprachgruppen von der Definition "Mensch" auszuschließen)
  • was einem Menschen Schaden zufügt (nicht nur körperlich, sondern auch seelisch oder finanziell)
  • wie er ein seltenes, aber gefährliches Ereignis gegen ein weniger gefährliches, aber häufigeres Ereignis abwägen sollte
  • wie er abwägen sollte, wenn eine kleine Verletzung des ersten Gesetzes einer großen Verletzung des 2. Gesetzes gegenübersteht, z.B. wenn er eine Anweisung erhält, die einen minimalen Schaden, bzw. nur ein kleines Risiko für einen Menschen bedeuten würde
  • wie kann ein Roboter damit umgehen, dass die Menschen ständig riskante Sachen tun, und sei es nur die Überquerung einer belebten Straße. Wenn der Roboter das 1. Gesetz sehr streng interpretiert, muss er das Überqueren einer Straße verhindern
  • was macht er, wenn er 2 sich wiedersprechende Befehle erhält, welchen der Menschen soll er dann als "wichtiger" erachten? Diese Robotergesetze sind nämlich in einem Aspekt sehr ungewöhnlich: Der Besitzer des Roboters hat nicht mehr Rechte als irgendein Fremder, der dem Roboter begegnet und ihm Befehle gibt. Unsere Gesellschaft geht nämlich eigentlich davon aus, dass nur der Besitzer den Nutzen aus einem Gerät ziehen kann.
  • muss der Roboter auch Befehle von sehr kleinen Kindern befolgen oder von psychisch gestörten oder von kriminellen Menschen? Wie kann der Roboter entscheiden, ob der Mensch, der den Befehl gibt, wirklich weiß, was er da anrichtet?
  • wie wägt er ab, wenn er einen Menschen verletzen oder töten müsste, um andere Menschen zu retten?
  • wie kann ein Roboter einen unverbindlichen Wunsch von einem Befehl unterscheiden? ("ich wünschte, die Badezimmertür wäre an einer anderen Stelle."
  • Wie kann man mit der Tatsache umgehen, dass ein Roboter notwendigerweise immer unvollständige Informationen haben wird (so wie wir Menschen ja auch, auch wir können die Konsequenzen unseres Handelns oft nicht abschätzen). Dies könnte ein Mensch ausnutzen, in dem er z.B. einem Roboter sagt, er solle Gift in ein Glass Wasser geben, einem anderen Roboter sagt er dann, er solle das Glas einem Menschen servieren. Keiner der beiden Roboter merkt, dass er gegen das 1. Gesetz verstößt.

Hier eine ganze Website zu den 3 Gesetzen, mit vielen interessanten weiterführenden Links, von denen die meisten der hier dargestellten Problematiken stammen.

Die Website roboethics.org/ kümmert sich sehr ernsthaft um das Thema Roboter-Ethik:

    “Roboethics is an applied ethics whose objective is to develop scientific/cultural/technical tools that can be shared by different social groups and believes. These tools aim to promote and encourage the development of Robotics for the advancement of human society and individuals, and to help preventing its misuse against humankind.” (Veruggio, 2002)

Der britische Informatiker und Psychologe Noel Sharkey forscht auf dem Gebiet der Künstlichen Intelligenz und des Maschinenlernens und macht sich für Ethik in der Robotik stark, der Link führt zu einem Interview mit ihm. Eine weitere Frage im Zusammenhang mit Robotern und Ethik ist natürlich, was tun eigentlich die Mewnschen, wenn die Roboter alle Arbeit übernehmen? Hier einige (ziemlich rohe) Gedanken zu den Themen Arbeit und Arbeitslosigkeit.

Eher ein bizarrer Aspekt von hoch-intelligenten Robotern behandelt ein Artikel in NewScientist: wie sollte ich mich verhalten, wenn Roboter rebellieren.

 

 

Nach oben

 

Roboter aus Fleisch und Blut und fließende Übergänge

Hier ein Link zu New Scientist, wo ein Artikel über den ersten "Robot" erschienen ist, der mit richtigen Muskelzellen arbeitet. Dies geht davon weg, dass Roboter immer nur aus Metall, Plastik und Motoren bestehen müssen. Die Verwendung von richtigem Gewebe hat durchaus Vorteile (siehe auch die Roboter in "Bladerunner", besser besprochen in der Sektion Literatur).

Ähnliche, jedoch etwas andere Problematiken ergeben sich in der anderen Richtung, wenn nämlich immer mehr künstliche Teile (Prothesen) in Menschen eingebaut werden. Das werden nämlich in Zukunft immer öfter "intelligente" Prothesen sein.

Alan Goldstein, ein Professor für Biomedical Materials Engineering Science ist beunruhigt über das, was seine Disziplin in der Zukunft aus dem Menschen machen wird. Er sieht eine zwangsläufige Entwicklung zum immer mehr Veränderungen in den Menschen. Er fragt, gibt es denn jemand in der westlichen Welt, dessen Körper nicht z.B. durch Zahnkronen, Kontaktlinsen oder zumindestens durch Impfungen technisch "verbessert" wurde. Diese Entwicklung, mit der er sich hauptberuflich beschäftigt, ist bereits sehr weit fortgeschritten. Es gibt um die Implementierung von Materialien in die Körper der Menschen, erst mal nur zu Heilungszwecken, aber er bezweifelt, dass die Möglichkeiten zur Verbesserung von Körperfunktionen nicht auch genauso bereitwillig genutzt werden. Sie gibt es heute bereits Menschen, die ihre Sehstärke mit Hilfe von Lasertechnologien die eigentlich für die Behandlung von Sehfehlern entwickelt wurde, weit über das für Menschen übliche Maß hinaus verbessern.

Goldstein berichtet von Entwicklungen, bei denen mit Hilfe einer Technik Biomimetics an der Oberfläche von Implantierungen, z.B. bei Arterienverengungen, Eiweißmoleküle aufgebracht werden, die eine Abstoßung verhindern und andere Stoffe, die sich langsam im Körper auflösen und z.B. eine Vernarbung verhindern sollen. Das heißt, nicht-biologische Implantierungen werden bereits mit biologischen, wie Eiweißen, kombiniert. D.h. es werden Menschen geschaffen, die aus einer Kombination von biologischen und nicht-biologischen Stoffen bestehen. Und das nicht nur zu Heilungszwecken, sondern immer öfter auch zu "Verbesserung" unserer Biologie. Wenn das Herz schwach ist, wer würde es ablehnen, wenn dann eine Prothese eingesetzt würde, die besser als das Original ist und ein 30 Jahre längeres aktives Leben ermöglicht?

Und diese Implantierungen müssen durchaus nicht passiv sein, ein Herzschrittmacher ist ein sehr aktives Gerät. Mehr und mehr wird "Intelligenz" in diese Geräte eingesetzt, z.B. Implantierungen, die den Zuckergehalt im Blut messen und das Insulin entsprechend dosieren. Der Leistungssport wird es sich auf keinen Fall verkneifen können, diese Möglichkeiten, legal oder weniger legal, zu nutzen. Ab wieviel Verbesserungen wird man aufhören, von Menschen im herkömmlichen Sinne zu sprechen?

Hier der Link zur Behandlung ähnlicher Themen am Rahmen der Literatur und unter dem Stichwort Artificial Life.

 

 

Nach oben

 

Verwandte Themen

Auf einer anderen Seite das Thema Turing Test und Artificial Intelligence (AI).

Geschichtlicher Hintergrund von Computern, Robotics und Artificial Intellegence (englisch)

Nobert Wiener, in 1949, über die Zukunft mit Computern und Robotern (Auszüge):

The Genie and the Bottle (Norbert Wiener)

    These new machines have a great capacity for upsetting the present basis of industry, and of reducing the economic value of the routine factory employee to a point at which he is not worth hiring at any price. If we combine our machine-potentials of a factory with the valuation of human beings on which our present factory system is based, we are in for an industrial revolution of unmitigated cruelty.
    We must be willing to deal in facts rather than in fashionable ideologies if we wish to get through this period unharmed. Not even the brightest picture of an age in which man is the master, and in which we all have an excess of mechanical services will make up for the pains of transition, if we are not both humane and intelligent.
    Finally the machines will do what we ask them to do and not what we ought to ask them to do. In the discussion of the relation between man and powerful agencies controlled by man, the gnomic wisdom of the folk tales has a value far beyond the books of our sociologists.
    There is general agreement among the sages of the peoples of the past ages, that if we are granted power commensurate with our will, we are more likely to use it wrongly than to use it rightly, more likely to use it stupidly than to use it intelligently. [W. W. Jacobs’s] terrible story of the “Monkey’s Paw” is a modern example of this — the father wishes for money and gets it as a compensation for the death of his son in a factory accident, then wishes for the return of his son. The son comes back as a ghost, and the father wishes him gone. This is the outcome of his three wishes.
    Moreover, if we move in the direction of making machines which learn and whose behavior is modified by experience, we must face the fact that every degree of independence we give the machine is a degree of possible defiance of our wishes. The genie in the bottle will not willingly go back in the bottle, nor have we any reason to expect them to be well disposed to us.
    In short, it is only a humanity which is capable of awe, which will also be capable of controlling the new potentials which we are opening for ourselves. We can be humble and live a good life with the aid of the machines, or we can be arrogant and die.

 

Zum Abschluss noch ein paar lustige Roboterfiguren als Kunstwerke (zum Verkauf), aus Abfällen hergestellt.

 




Philipp Schaumann, http://philipps-welt.info/

Philipps-Welt

Copyright-Hinweis:
Das Copyright des Materials auf diesen Webseiten liegt, falls kein anderer Autor genannt wird, bei Philipp Schaumann. Creative Commons License
Diese Texte sind lizensiert unter der Create Commons Attribution-Noncommercial-Share Alike 2.0 Austria Lizenz. Natürlich gelten auch die Regeln des Fair Use und über Ausnahmen bzgl. der Lizenz kann jederzeit mit den Autoren gesprochen werden.