Cheetah - eine Raubkatze aus Metall und Elektronik

Cheetah? War das nicht der Affe in der Serie "Daktari"?

Das MIT hat einen neuen Cheetah entwickelt. Einen katzenartigen Roboter, der ohne Fremdsteuerung ziemlich schnell laufen und was noch wichtiger ist, der Hindernisse, selbst wenn sie urplötzlich vor diesem Robot auftauchen, fehlerfrei überspringen kann und das in vollem Lauf! Cheetah läuft mit einer Geschwindigkeit von 8 km/h und überspringt in vollem Lauf bis zu 45cm hohe Hürden.Das ist bisher einmalig in der Welt!

Eine autonom agierende Renn- und Springmaschine. Da sitzt kein "Pilot" an einem Steuerpult und das lässt mich doch ein wenig frösteln. Natürlich weiss ich, dass die Amerikaner seit Jahren an einer autonomen Drohne forschen. Sie soll autonom fliegen, den Feind erkennen und selbsttätig ausschalten (eliminieren).

Ist nun Cheetah, die mit Geldern aus dem Militäretat entwickelt wird, die Vorstufe eines Kampfroboters, der irgendwann einmal menschliche Soldaten ersetzt? Wie viele autonome Funktionen haben die Forscher bisher entwickelt? Wenn man die alle in einem Roboter vereinigt, was ergibt das?

George Orwells Roman "1984" wurde damals von vielen Menschen als zu weit hergeholt angesehen. Niemand oder zumindest sehr viele glaubten damals, dies sei eine Utopie, die sich nie bestätigen würde. Nun, meine Damen und Herren, 1984 ist schon seit Jahren überholt und total veraltet. Wir leben in einem neuen Zeitalter, in dem durch die Vernetzung wirklich kein Mensch mehr unbeobachtet bleibt. Das Internet tut ein Übriges dazu.

Dafür rückt der Film "Terminator" in unseren Fokus. Was, wenn es bereits in den geheimen Laboren Kampfroboter gibt, die einige der Aspekte vom "Terminator" aufweisen? Ist das Utopie? Nun, das glaubten die Menschen damals von Jules Verne und seinen Romanen auch und ebenfalls glaubten die Menschen , das Buch "1984" würde nie Realität werden. Die Bücher von Jules Verne sind Wirklichkeit geworden und "1984" ebenfalls. Warum also sollte nicht der Kampf der Maschinen gegen Menschen real werden?

Zum Video

Ich hatte den Artikel bereits auf einer Autorenplattform eingestellt und wurde gefragt, warum ich in einer Welt leben möchte, in der Menschen über Leben und Tod entscheiden?

Ich habe lange überlegt, was ich auf diese Frage antworte. Um es nicht zu lang werden zu lassen - es lässt sich nämlich nicht mit zwei oder drei Worten beantworten - möchte ich eine kleine Geschichte erzählen, die ich von Kriegsheimkehrern, die in Russland gekämpft hatten, in dieser oder ähnlicher Form des öfteren als Kind zu hören bekam;

Abseits vom grossen Massensterben stehen sich plötzlich zwei feindliche Soldaten gegenüber. Beide halten das Gewehr im Anschlag und beide haben fürchterliche Angst in diesem einen Augenblick, der über Leben und Tod entscheidet. Sie sehen sich an, sehen sich in die Augen und plötzlich bekommt ihr Gegenüber ein menschliches Gesicht. Der russische Soldat ist noch sehr jung, während der Deutsche zu Hause Kinder hat, die jetzt wohl ebenso alt sind, wie sein Gegenüber. Zögerlich senken beide die Waffen. Plötzlich spricht der russische Soldat. Er redet den Deutschen in dessen Sprache an. Ein unsichtbares Band ist plötzlich zwischen den Beiden. Sie legen ihre Gewehre auf den Boden, setzen sich daneben und rauchen gemeinsam eine Zigarette, die der Russe mit geschickten Fingern gedreht hat. Der Deutsche zieht seine Brieftasche und zeigt Bilder von seiner Familie. Darauf holt der Russe ebenfalls Fotos hervor und zeigt sie dem Deutschen. Im zivilen Leben ist der Deutsche Schreiner und der junge Russe Student an der Universität in Moskau, wo er auch deutsch gelernt hat. Wie die beiden feindlichen Soldaten so dasitzen, scheint es, als ob der Krieg nicht existent sei. Doch das sich nähernde Donnern von Geschützen bringt beide wieder zurück in die Gegenwart. Sie stehen auf, umarmen sich kurz und jeder geht zu seiner Seite zurück. Ein kleines Stück Menschlichkeit in einem unmenschlichen Krieg. Versuch das mal einem Kampfroboter zu vermitteln.

Wie wird ein autonom agierender Kampfroboter Freund und Feind unterscheiden können? Denkbar wären hier Transponder, zum Beispiel RFID-Chips, die passiv arbeiten und bei entsprechender Programmierung vom Roboter als "Freund" identifiziert werden. Passive Transponder haben allerdings eine geringe Reichweite. Hat jemand diese Identifizierung nicht, dann gilt er als "Feind". Dabei ist durchaus denkbar, dass Soldaten für längere Distanzen, um etwa nicht von eigenen autonom agierenden Drohnen erschossen zu werden, mit aktiven Transpondern ausgerüstet werden. Möglich wäre natürlich auch eine Mischung aus "aktiv-passiv", da der aktive Transponder ja Energie braucht. Vielleicht hat man bis dahin die Technik so weit vervollkommnet, dass der eigene Körper die für den Transponder benötigte Energie liefert.

Nun stellt sich aber eine andere, sehr wichtige Frage; was passiert, wenn der Transponder ausfällt? Stirbt der Soldat dann unter "friendly fire"? Bisher wissen wir über den Stand der Militärtechnik nur das, was Forschungsinstitute mit Billigung der Militärs veröffentlichen. Niemand aus der Bevölkerung, der nicht zum Kreis der "Eingeweihten" gehört, kann also wirklich wissen, wie weit die Technik bereits fortgeschritten ist.

Stephen Hawking warnt davor, KI = künstliche Intelligenz zu unterschätzen. Seine Aussage: "Computer werden bald intelligenter sein als Menschen."

Der britische Astrophysiker - einer der klügsten Köpfe der Welt - glaubt, dass die kommenden Generationen intelligenter Maschinen nicht nur intelligenter als der Mensch sein werden, sondern auch eigene Emotionen und Gefühle entwickeln. Damit wäre die Gefahr gegeben, dass wir Menschen plötzlich in Konkurrenz zu Maschinen stehen würden.

Der Cambridge-Professor glaubt, dass wir Menschen dann nicht mehr in der Lage sein werden, die Maschinen zu kontrollieren. Er selbst leidet seit 1963 an Amyotropher Lateralsklerose (ALS), einer Erkrankung des motorischen Nervensystems und ist seitdem abhängig von künstlicher Intelligenz, die es ihm ermöglicht, mit anderen Menschen zu kommunizieren. Trotzdem glaubt er, dass die künstliche Intelligenz bei Maschinen, wenn sie im gleichen rasenden Tempo wie bisher fortschreitet, zur Bedrohung für die Menschheit wird. Apokalyptische Visionen kommen einem da in den Sinn.

Damit intelligente Roboter nicht eines Tages die Herrschaft über den Menschen übernehmen, hat der Wissenschaftler Isaac Asimow n seiner Kurzgeschichte Runaround bereits 1942 beschrieben, welche Regeln es für Roboter geben muss. Das Endergebnis dabei waren die drei Robotergesetze.

Also die drei Asimowschen Gesetze, würden Roboter sie befolgen, hätten zur Folge, dass Kampfroboter nicht gegen Menschen vorgehen. In der Zwischenzeit ist aber das sogenannte "Nullte Gesetz" hinzugekommen, abgeleitet aus den Filmen "Der Aufbruch zu den Sternen" und "Das galaktische Imperium". Kritiker sehen hier eine Abkehr von den Asimowschen Gesetzen, obwohl Militärs dies verneinen. Der genaue Wortlaut ist: "Ein Roboter darf die Menschheit nicht verletzen oder durch Passivität zulassen, dass die Menschheit zu Schaden kommt." Dadurch wird es dem Roboter möglich, einzelne Menschen zu töten, wenn seine Logik ihm sagt, dass Individuen die Menschheit als Ganzes bedrohen könnten. Genau hier setzt auch die Kritik ein. Menschen, die als Feinde eingestuft werden, schaden ja der Logik zufolge der Menschheit und müssen deshalb eliminiert werden. So behalten die drei ersten Gesetze ihre Gültigkeit, ausser es tritt der Fall ein, wo es um die Menschheit geht. Da es bei jedem grossen Krieg immer um die Menschheit geht, ordnen sich die Gesetze 1 - 3 dem Nullten Gesetz unter!

cornelia warnke 30.5.2015

ZUR LISTE