Das vierte Gesetz (der Robotik)

by bfrenz
0 comments

Der Kinofilm „I, Robot“ ist eine verworrene Angelegenheit. Er setzt auf minderwertige Pseudowissenschaft und ein grundlegendes Gefühl der Beunruhigung, das synthetische (nicht auf Kohlenstoff basierende) intelligente Lebensformen in uns zu wecken scheinen. Aber er geht nicht tiefer als eine Comic-Behandlung der entscheidenden Themen, die er anschneidet. I, Robotic ist einfach nur ein weiterer – und ziemlich minderwertiger – Eintrag in einer langen Reihe von weitaus besseren Filmen wie „Blade Runner“ und „Expert System“.

Sigmund Freud stellte fest, dass wir eine erstaunliche Reaktion auf das Leblose haben. Das liegt wahrscheinlich daran, dass wir wissen, dass wir – abgesehen von Anmaßungen und Schichten des Philosophierens – nichts anderes sind als rekursive, selbstbewusste, introspektive, achtsame Geräte. Einzigartige Maschinen, kein Zweifel, aber dennoch Macher.

Denken Sie an die James-Bond-Filme. Sie bilden eine Jahrzehnte umspannende Galerie menschlicher Paranoia. Die Schurken wechseln: Kommunisten, Neonazis, Medienmagnaten. Aber eine Art von Bösewicht ist ein fester Bestandteil dieses Psychodramas, dieser Parade menschlicher Ängste: die Maschine. James Bond sieht sich immer wieder mit abscheulichen, bösartigen, schädlichen Maschinen und Automaten konfrontiert.

Isaac Asimov, der verstorbene Sci-Fi-Autor (und Forscher), entwickelte die 3 Gesetze der Robotik, um dieser Welle der Angst, ja der Furcht, die unlogisch, aber allgegenwärtig ist, entgegenzuwirken:.

  1. Ein Roboter darf einen Menschen nicht verletzen oder durch Untätigkeit ermöglichen, dass ein Mensch zu Schaden kommt.
  2. Ein Roboter muss die Befehle befolgen, die ihm von Menschen gegeben werden, es sei denn, diese Befehle würden gegen das erste Gesetz verstoßen.
  3. Ein Roboter muss seine eigene Anwesenheit sichern, solange diese Verteidigung nicht gegen das Erste oder Zweite Gesetz verstößt.

Viele haben die fehlende Konsistenz und damit die Unanwendbarkeit dieser Gesetze festgestellt, wenn man sie zusammen betrachtet.

Sie entstammen zunächst keiner kohärenten Weltanschauung oder einem kohärenten Hintergrund. Damit sie angemessen umgesetzt werden können und ihre Analyse nicht auf eine möglicherweise unsichere Weise erfolgt, müssen die Roboter, in die sie eingebettet sind, mit ziemlich umfassenden Modellen des physikalischen Universums und der menschlichen Gesellschaft ausgestattet sein.

Ohne solche Zusammenhänge führen diese Gesetze schnell zu unlösbaren Paradoxien (die von Asimovs Robotern als besorgter Zusammenbruch erlebt wurden). Bei Automaten, die auf rekursiven Funktionen basieren (Turing-Geräte), wie es alle Roboter sind, sind die Widersprüche lähmend. Godel wies auf ein solches selbstzerstörerisches Paradoxon in den „Principia Mathematica“ hin, einem scheinbar umfangreichen und selbstbeständigen logischen System. Es reichte aus, um die gesamte atemberaubende Konstruktion zu diskreditieren, die Russel und Whitehead über ein Jahrzehnt hinweg aufgebaut hatten.

Einige widerlegen dies und behaupten, dass Roboter keine Automaten im klassischen Church-Turing-Sinn sein müssen. Sie könnten nach heuristischen, probabilistischen Regeln der Entscheidungsfindung handeln. Es gibt viele andere Arten von (nicht rekursiven) Funktionen, die in einen Roboter eingebaut werden können, raten sie uns.

Doch wie kann man sicherstellen, dass die Gewohnheiten des Roboters vollständig vorhersehbar sind? Wie kann man sicher sein, dass die Robotik die 3 Gesetze vollständig und immer ausführen wird? Nur rekursive Systeme sind vom Konzept her vorhersehbar, auch wenn ihre Kompliziertheit dies manchmal erschwert.

Dieser Beitrag befasst sich mit einigen allgemeinen, grundlegenden Fragen, die durch die Gesetze aufgeworfen werden. Im nächsten Beitrag dieser Reihe werden die Gesetze aus verschiedenen Blickwinkeln analysiert: Standpunkt, Expertensystem und einige Systemtheorien.

Eine unmittelbare Frage stellt sich: WIE wird ein Roboter einen Menschen bestimmen? In einer Zukunft mit idealen Androiden, die aus organischen Materialien bestehen, wird ein oberflächliches, äußeres Abtasten definitiv nicht ausreichen. Struktur und Zusammensetzung werden keine ausreichenden Unterscheidungsmerkmale sein.

Es gibt zwei Möglichkeiten, dieses äußerst praktische Problem zu lösen: Die eine besteht darin, den Roboter mit der Fähigkeit auszustatten, einen umgekehrten Turing-Test durchzuführen (um Menschen von anderen Lebensformen zu unterscheiden) – die andere besteht darin, alle Roboter auf irgendeine Weise mit einem „Strichcode“ zu versehen, indem man ihnen ein aus der Ferne lesbares Signalgerät einpflanzt (z. B. einen RFID-Chip – Radio Frequency ID). Beides bringt zusätzliche Probleme mit sich.

Der 2. Dienst wird den Roboter daran hindern, Menschen wohlwollend zu erkennen. Er wird in der Lage sein, mit jeder Sicherheit Roboter und nur Roboter (oder Menschen mit solchen Implantaten) zu erkennen. Dabei sind Produktionsfehler oder der Verlust der implantierten Erkennungsmarken noch gar nicht berücksichtigt. Und was wäre, wenn ein Roboter sein Etikett entfernen würde? Wird dies ebenfalls als „Produktionsfehler“ eingestuft?

In jedem Fall wird die Robotik gezwungen sein, eine binäre Entscheidung zu treffen. Sie wird gezwungen sein, eine Art von physischen Einheiten als Roboter zu klassifizieren – und alle anderen als „Nicht-Roboter“. Werden zu den Nicht-Robotern auch Affen und Papageien gehören? Ja, es sei denn, die Hersteller statten die Roboter mit digitalen oder optischen oder molekularen Darstellungen der menschlichen Figur (männlich und weiblich) in verschiedenen Positionen (stehend, sitzend, liegend) aus. Oder es sei denn, alle Menschen sind von Geburt an in irgendeiner Weise gekennzeichnet.

Das sind lästige und abstoßende Dienste, die nicht sehr effektiv sind. Kein Wörterbuch der menschlichen Arten und Stellungen wird wahrscheinlich vollständig sein. Es wird immer wieder merkwürdige Körperhaltungen geben, die der Roboter nicht mit seiner Bibliothek abgleichen kann. Ein menschlicher Diskuswerfer oder Schwimmer kann von einem Roboter leicht als „nicht-menschlich“ eingestuft werden – und könnte so Invaliden den Weg abschneiden.

Wie wäre es, einen umgekehrten Turing-Test durchzuführen?

Dies ist ein viel schwerwiegenderer Fehler. Es ist möglich, einen Test zu entwickeln, den die Robotik anwenden kann, um synthetische Lebensformen von menschlichen zu unterscheiden. Aber er muss nicht aufdringlich sein und darf keine offene und lange Interaktion beinhalten. Denkbar wäre eine langwierige Fernschreibsitzung, bei der sich der Mensch hinter einem Vorhang verbirgt und der Roboter dann seine Entscheidung trifft: ist der Teilnehmer ein Mensch oder ein Roboter. Das ist unvorstellbar.

Außerdem wird die Anwendung eines solchen Tests den Roboter in vielen wesentlichen Aspekten „vermenschlichen“. Menschen bestimmen über andere Menschen, weil sie auch Menschen sind. Das nennt man Mitgefühl. Ein Roboter wird ziemlich menschlich sein müssen, um einen anderen Menschen anzuerkennen, man braucht einen, um einen zu verstehen, sagt man (passenderweise).

Nehmen wir an, dass dieses Problem auf irgendeine unglaubliche Weise überwunden wird und die Robotik ausnahmslos Menschen erkennt. Die nächste Frage bezieht sich auf den Begriff der „Verletzung“ (immer noch im ersten Gesetz). Ist er nur auf physische Verletzungen beschränkt (d. h. auf die Beseitigung der physischen Verbindung zwischen menschlichem Gewebe oder der normalen Funktion des menschlichen Körpers)?

Sollte der Begriff „Verletzung“ im Ersten Gesetz auch die nicht minder schwerwiegenden psychischen, verbalen und sozialen Verletzungen einschließen (schließlich ist bekannt, dass sie alle physische negative Auswirkungen haben, die manchmal nicht weniger schwerwiegend sind als direkte physische „Verletzungen“)? Ist eine Beleidigung eine „Verletzung“? Was ist, wenn man grob unhöflich oder geistig gewalttätig ist? Oder religiöse Empfindlichkeiten zu verletzen, politisch unkorrekt zu sein – sind das Verletzungen? Die meisten menschlichen (und daher unmenschlichen) Handlungen verärgern tatsächlich den einen oder anderen Menschen, haben die Möglichkeit, dies zu tun, oder scheinen dies zu tun.

Denken Sie an eine chirurgische Behandlung, ans Autofahren oder an die Geldanlage an der Börse. Diese „harmlosen“ Handlungen könnten in einem Koma, einem Unfall oder lähmenden finanziellen Verlusten enden. Sollte sich ein Roboter weigern, menschliche Anweisungen zu befolgen, die zu einer Verletzung des Befehlsgebers führen könnten?

Sollte sich ein Roboter weigern, einem Bergsteiger seine Ausrüstung auszuhändigen, damit er nicht bei einem missglückten Versuch, den Gipfel zu erreichen, von einer Klippe stürzt? Sollte sich ein Roboter weigern, menschliche Befehle zu befolgen, die sich auf das Überqueren verkehrsreicher Straßen oder auf das Fahren (unsicherer) Sportwagen beziehen?

Welches Maß an Bedrohung sollte die Ablehnung des Roboters und sogar ein prophylaktisches Eingreifen auslösen? In welcher Phase der interaktiven Mensch-Maschine-Kooperation sollte sie aktiviert werden? Sollte sich ein Roboter weigern, jemandem eine Leiter oder ein Seil zu bringen, der plant, sich durch Erhängen das Leben zu nehmen (das ist eine einfache Frage)?

Sollte er es unterlassen, seinen Herrn von einer Klippe zu stoßen (ganz sicher), ihm beim Erklimmen der Klippe zu helfen (weniger sicher), ihn zur Klippe zu fahren (vielleicht), ihm zu helfen, in sein Auto zu steigen, um ihn zur Klippe zu fahren … Wo hört die Pflicht und der Gehorsam auf?

Wie auch immer die Antwort ausfällt, eines ist klar: ein solcher Roboter sollte mit mehr als einem einfachen Urteilsvermögen ausgestattet sein, mit der Fähigkeit, komplizierte Situationen zu bewerten und zu analysieren, die Zukunft vorherzusagen und seine Entscheidungen auf sehr unscharfe Algorithmen zu stützen (kein Programmierer kann alle möglichen Szenarien visualisieren). Für mich klingt ein solcher „Roboter“ viel unsicherer (und humanoider) als jeder rekursive Automat, der NICHT die berühmten 3 Gesetze enthält.

Außerdem: Was genau macht „Untätigkeit“ aus? Wie können wir Untätigkeit von einer nicht mehr funktionierenden Handlung oder, schlimmer noch, von einer Handlung, die absichtlich fehlgeschlagen ist, unterscheiden? Wenn ein Mensch in Gefahr ist und der Roboter versucht, ihn zu retten, und dabei seine Arbeit einstellt – wie können wir feststellen, inwieweit er sich eingesetzt und alles getan hat, was er konnte?

Wie viel von der Verantwortung für die Untätigkeit eines Roboters, für sein teilweises Handeln oder für sein Nichtfunktionieren sollte dem Hersteller zugeschrieben werden – und wie viel dem Roboter selbst? Wenn ein Roboter schließlich beschließt, seine eigenen Programme zu übersehen – wie sollen wir Informationen über dieses denkwürdige Ereignis erhalten? Es ist kaum zu erwarten, dass das äußere Erscheinungsbild uns hilft, einen trotzigen Roboter von einem untätigen zu unterscheiden.

Die Situation wird noch viel komplizierter, wenn wir Streitfälle betrachten.

Stellen Sie sich vor, dass ein Roboter einem Menschen Schaden zufügen muss, um zu verhindern, dass er einem anderen Schaden zufügt. Die Gesetze sind in diesem Fall absolut unzureichend. Der Roboter müsste entweder eine empirische Hierarchie der Verletzungen entwickeln – oder eine empirische Hierarchie der Menschen. Sollen wir Menschen uns darauf verlassen, dass Roboter oder ihre Hersteller (die dennoch intelligent, moralisch und fürsorglich sind) diese Entscheidung für uns treffen? Sollten wir uns ihrem Urteil beugen, welche Verletzung die schwerwiegendere ist und ein Eingreifen rechtfertigt?

Eine Zusammenfassung der Asimovschen Gesetze würde uns die folgende „Realitätstabelle“ bieten:.

Ein Roboter sollte menschliche Befehle befolgen, außer wenn:.

  • Das Befolgen dieser Befehle würde wahrscheinlich zu einer Verletzung eines Menschen führen, oder.
  • Das Befolgen der Befehle führt dazu, dass ein Mensch verletzt wird.

Ein Roboter muss seine eigene Anwesenheit mit drei Ausnahmen sichern:.

  • Dass ein solcher Selbstschutz für einen Menschen schädlich ist;.
  • Dass ein solcher Selbstschutz die Untätigkeit angesichts einer möglichen Verletzung eines Menschen beinhaltet;.
  • Dass ein solcher Selbstschutz zur Ungehorsamkeit des Roboters führt (der aufhört zu arbeiten, um menschlichen Richtlinien zu folgen).

Der Versuch, auf der Grundlage dieser Bedingungen eine Wahrheitstabelle zu entwickeln, ist der beste Weg, um die Problematik von Asimovs idealisierter, aber extrem unpraktischer Welt aufzuzeigen.

 

Hier ist eine Übung:.

Stellen Sie sich einen Sachverhalt vor (denken Sie an das unten stehende Beispiel oder an einen, den Sie sich ausdenken) und erstellen Sie anschließend eine Faktentabelle, die auf den oben genannten 5 Bedingungen basiert. In einer solchen Faktentabelle würde „T“ für „Einhaltung“ und „F“ für „Nichteinhaltung“ stehen.

Beispiel:.

Ein Roboter zur Überwachung der Radioaktivität hat eine Fehlfunktion. Wenn er sich selbst zerstört, kann sein menschlicher Bediener verletzt werden. Wenn er sich nicht selbst zerstört, wird seine Fehlfunktion einen Kunden, der von seiner Leistungsfähigkeit abhängt, ebenfalls schwer verletzen.

Zu den möglichen Dienstleistungen gehört natürlich die Einführung von Abstufungen, einer Wahrscheinlichkeitsrechnung oder einer Energieberechnung. Wie Asimov es formuliert, sind die Regeln und Bedingungen von begrenzter Natur, ja oder nein, nehmen Sie es oder lassen Sie es. Aber wenn man der Robotik raten würde, die Gesamtenergie zu maximieren, würden viele Grenzfälle gelöst werden.

Doch selbst die Einführung von Heuristik, Wahrscheinlichkeit und Energie hilft uns nicht, das Dilemma im obigen Beispiel zu lösen. Im Leben geht es darum, spontan neue Richtlinien zu erstellen, während wir unterwegs sind und in einer sich kaleidoskopisch verändernden Welt auf brandneue Herausforderungen stoßen. Roboter mit starren Anweisungen sind dafür schlecht geeignet.

 

Im Hinterkopf behalten – Godels Theoreme.

Das Werk des bedeutenden, wenn auch exzentrischen tschechisch-österreichischen mathematischen Logikers Kurt Gödel (1906-1978) befasste sich mit der Vollständigkeit und Konsistenz rationaler Systeme. Eine flüchtige Bekanntschaft mit seinen beiden Theoremen hätte dem Architekten viel Zeit erspart.

Gödels erster Unvollständigkeitssatz besagt, dass jedes konsistente axiomatische vernünftige System, das geeignet ist, Mathematik auszudrücken, aus wahren, aber unbeweisbaren („nicht entscheidbaren“) Sätzen besteht. In bestimmten Fällen (wenn das System omegakonsistent ist), sind sowohl die angegebenen Sätze als auch ihre Negation unbeweisbar. Das System entspricht und ist wahr – aber nicht „vollständig“, da nicht alle seine Sätze als wahr oder falsch entschieden werden können, indem sie entweder gezeigt oder widerlegt werden.

Der Zweite Unvollständigkeitssatz ist viel weltbewegender. Er besagt, dass kein konstantes formales logisches System seine eigene Konsistenz beweisen kann. Das System kann zwar vollständig sein – aber wir sind nicht in der Lage, mit Hilfe seiner Axiome und Inferenzgesetze zu zeigen, dass es konsistent ist.

Einfach ausgedrückt: Ein rechnerisches System kann entweder vollständig und unregelmäßig sein – oder konstant und unzureichend. Wenn ein Roboteringenieur versucht, ein System zu bauen, das sowohl vollständig als auch konsistent ist, würde er mit dem Gödelschen Theorem in Konflikt geraten.

 

Anmerkung – Turing-Maschinen.

1936 veröffentlichten ein Amerikaner (Alonzo Church) und ein Brite (Alan M. Turing) einzeln (wie so oft in der Wissenschaft) die Grundzüge eines neuen Zweigs der Mathematik (und Logik): die Berechenbarkeit oder rekursive Funktionen (aus denen später die Automatentheorie wurde).

Die Autoren beschränkten sich auf Berechnungen, die „effiziente“ oder „mechanische“ Methoden zum Auffinden von Ergebnissen beinhalteten (die sich ebenfalls als Leistungen (Werte) zu Lösungen offenbaren konnten). Diese Ansätze wurden so genannt, weil sie im Prinzip von einfachen Maschinen (oder menschlichen Computern oder menschlichen Rechnern, um Turings bedauerliche Formulierungen zu verwenden) ausgeführt werden konnten. Der Schwerpunkt lag auf der Endlichkeit: eine begrenzte Anzahl von Anweisungen, eine endliche Anzahl von Symbolen in jeder Richtlinie, eine begrenzte Anzahl von Aktionen zum Ergebnis. Deshalb waren diese Ansätze für den Menschen ohne die Hilfe eines Apparates (mit Ausnahme von Bleistift und Papier als Gedächtnisstütze) nutzbar. Außerdem durften sich weder Einsicht noch Erfindungsgabe in den Prozess der Optionssuche „einmischen“ oder daran beteiligt sein.

Was Church und Turing taten, war, eine Menge aller Funktionen zu erstellen, deren Werte durch die Anwendung effizienter oder mechanischer Berechnungsmethoden erhalten werden konnten. Turing ging sogar noch weiter als Church und entwickelte die „Turing-Maschine“ – ein Gerät, das den Wert aller Funktionen bestimmen kann, deren Werte mit Hilfe zuverlässiger oder mechanischer Methoden gefunden werden können. Das Programm, das die TM (= Turing-Maschine im weiteren Text) ausführt, war also wirklich ein effektiver oder mechanischer Ansatz. Für die angehenden Leser: Church löste das Entscheidungsproblem für das Aussagenkalkül und Turing bewies, dass es keine Lösung für das Entscheidungsproblem im Zusammenhang mit dem Prädikatenkalkül gibt. Einfacher ausgedrückt: Es ist möglich, den Realitätswert (oder den Theoremstatus) eines Ausdrucks im Aussagenkalkül zu „zeigen“ – aber nicht im Prädikatenkalkül. Später stellte sich heraus, dass viele Funktionen (sogar in der Zahlentheorie selbst) nicht rekursiv sind, was bedeutet, dass sie nicht von einem Turing-Macher aufgelöst werden können.

Niemandem ist es gelungen, zu zeigen, dass eine Funktion rekursiv sein muss, um tatsächlich berechenbar zu sein. Dies ist (wie Post im Gedächtnis behielt) eine „Arbeitshypothese“, die durch einen frustrierenden Beweis gestützt wird. Wir kennen keine effektiv berechenbare Funktion, die nicht rekursiv ist, durch die Entwicklung brandneuer TMs aus bestehenden können wir brandneue effizient berechenbare Funktionen aus bestehenden gewinnen und TM-Berechenbarkeits-Sterne in jedem Versuch, zuverlässige Berechenbarkeit zu verstehen (oder diese Bemühungen sind reduzierbar oder vergleichbar mit TM berechenbaren Funktionen).

Das Turing-Gerät selbst hat, obwohl es abstrakt ist, viele Merkmale der „realen Welt“. Es ist eine Blaupause für ein Rechengerät mit einer „idealen“ Ausnahme: seinem unbegrenzten Speicher (das Band ist unendlich). Unabhängig von seiner Hardware (ein Lese-/Schreibkopf, der ein zweidimensionales Band mit Einsen und Nullen abtastet usw.) ist es nach heutigem Verständnis eine Softwareanwendung. Er führt Anweisungen aus, liest und schreibt, zählt und so weiter. Es handelt sich um einen Roboter, der geschaffen wurde, um eine zuverlässige oder mechanische Technik zur Festlegung von Funktionen zu implementieren (Bestimmung des Realitätswerts von Vorschlägen). Wenn der Übergang von der Eingabe zur Ausgabe deterministisch ist, handelt es sich um einen klassischen Automaten, wenn er durch eine Tabelle von Wahrscheinlichkeiten bestimmt wird, um einen probabilistischen Roboter.

Mit der Zeit und dem Hype wurden die Beschränkungen der TMs vergessen. Niemand kann behaupten, dass der Geist ein TM ist, da niemand zeigen kann, dass er nur rekursive Funktionen auflöst. Wir können behaupten, dass TMs alles tun können, was digitale Computersysteme tun – aber nicht, dass digitale Computersysteme TMs im Sinne der Bedeutung sind. Vielleicht sind sie es, vielleicht auch nicht. Wir wissen nicht genug über sie und über ihre Zukunft.

Außerdem scheint die Forderung, dass rekursive Funktionen von einem UNBEKANNTEN Menschen berechnet werden können, die möglichen Äquivalente einzuschränken. Insofern Computersysteme menschliche Berechnungen nachahmen (Turing war dieser Meinung, als er den ACE, das damals schnellste Computersystem der Welt, mitentwickelte), sind sie TMs. Funktionen, deren Werte von Menschen mit Hilfe eines Computersystems berechnet werden, sind immer noch rekursiv. Problematisch wird es dann, wenn der Mensch von anderen Instrumenten unterstützt wird. Wenn wir Bestimmungsgeräte verwenden, um die Werte einer Funktion zu ermitteln, scheint sie nicht der Definition einer rekursiven Funktion zu entsprechen. Wir können also verallgemeinern und feststellen, dass Funktionen, deren Werte von einem Menschen mit Hilfe von Hilfsmitteln bestimmt werden, rekursiv sein können, je nach dem verwendeten Hilfsmittel und dem Fehlen von Einfallsreichtum oder Einsicht (letzteres ist ohnehin eine schwache, nicht strenge Anforderung, die nicht formalisiert werden kann).

Click to rate this post!
[Total: 0 Average: 0]

You may also like

©2023 – All Right Reserved.

About Us

Unser deutsches Web-Technologie-Magazin kann hochwertige Artikel, Tutorials und Fallstudien bieten, die ihre Fähigkeiten in der Webentwicklung erweitern und sie mit den neuesten Trends und Best Practices vertraut machen. Wir können Lösungen für ihre Schmerzpunkte bieten, indem wir Anleitungen zur Integration neuer Technologien und zur Optimierung der Website-Leistung bereitstellen. Unsere Plattform kann sie mit Gleichgesinnten vernetzen und ihr berufliches Netzwerk erweitern, indem wir Diskussionsforen und Online-Veranstaltungen organisieren.

Editors' Picks