Nummer 5 lebt- KI und die ferne Zukunft

  • Der Einsatz oder Nichteinsatz von autonomen Waffen geht in die nächste Runde.

    http://www.spiegel.de/wissensc…-kontrolle-a-1253320.html


    Der Artikel kommt relativ am Anfang mit diesem Zitat

    Zitat

    "Es geht hier nicht um eine verrückte, unrealistische Terminator-Fantasie", sagte KI-Forscher Toby Walsh von der australischen University of New South Wales vor wenigen Tagen auf der Wissenschaftskonferenz AAAS in Washington. "Die Waffen wird es in absehbarer Zeit geben. Wir sollten uns gut überlegen, ob wir sie über Leben und Tod entscheiden lassen wollen."

    und endet damit

    Zitat

    "Kommen vollautonome Waffen zum Einsatz und geht dabei etwas schief, lässt sich im Nachhinein nicht mal mehr sagen, wer dafür nun verantwortlich ist", sagte Mary Wareham von Human Rights Watch. Weil die genutzte Software aus ihren Erfahrungen lernt, entzieht sich ihr Verhalten in Teilen selbst der Kontrolle der Entwickler.


    äääh...doch läßt sich...Nummer 5 und sein Cousin Skynet:whistling:.


    Jetzt bekommen unsere Wissenschaftler und Vordenker kalte Füße, wie einst Albert und Konsorten.Aber es sei euch gesagt, nu is to laat.Wenn nur eine wissenschaftliche Disziplin vorprescht und die geistigen Wissenschaften Winterschlaf halten, dann wird es immer enden wie auf dem Bikini-Atoll.

  • Ich gehe davon aus, dass wirklich autonome Waffen sehr schnell die Sinnlosigkeit ihres Einsatzes "begreifen" und sich entsprechend verhalten, also sich gegen die "Dummheit" ihrer Erzeuger wenden werden.

    Das ist nicht weiter schlimm, denn wer benötigt Leute die z.B. tagsüber Atombomben "zusammenschrauben", und nach Feierabend Kinder zeugen?

    Die meisten Ruinen haben zwei Beine.

  • Der Einsatz oder Nichteinsatz von autonomen Waffen geht in die nächste Runde.

    ...

    Wenn nur eine wissenschaftliche Disziplin vorprescht und die geistigen Wissenschaften Winterschlaf halten, dann wird es immer enden wie auf dem Bikini-Atoll.

    Ich schätze mal, Du hast einfach zu viel geisteswissenschaftliches und viel zu wenig SciFi-Fachliteratur gelesen, um Deine Phantasie mit den nötigen Modulen auszustatten um sie wandern lassen zu können. 8o

    Die KI beziehungsweise eine technische oder eben künstliche Intelligenz ist vielleicht sogar der logische Höhepunkt in der Entwicklung einer Spezies, bevor sie die Abhängigkeit von einem geschützten Planetensystem nicht mehr braucht um durch das Universum zu ziehen.
    In absehbarer Zeit wird eine technikverliebte Avantgarde mit Computerchips Gehirnfunktionen aufpeppen. Meister Google, Siri und Alexa hast Du dann direkt im Brain hocken und bei Bedarf ständigen Zugriff auf jede Information, desweiteren wird es unzählige technische Tools geben, die den Körper künstlich verbessern. Schneller , stärker und gesünder machen. Kranke Herzen, Lebern und Nieren sind gegen langlebigen Ersatz austauschbar, Krankheiten haben ihren Schrecken verloren und der Mensch hat den Cyborg erschaffen, der dem normalen Menschen in vielerlei Hinsicht überlegen ist - geistig und körperlich. Ohne diese Hilfsmittel wird ein Mensch irgendwie behindert sein. Natürlich ist das nur eine Station auf dem Weg zur Superintelligenz, die letztlich eine Verschmelzung von menschlichem Intellekt, künstlicher Intelligenz in einem unsterblichen Körper sein wird, die dann endgültig bereit ist das Universum zu erobern, wobei es dann sicher mehr als ein KI-Konglomerat geben wird, welches die mobilen Einheiten mit seinen Kapazitäten unterstützt.

    borgkubus.jpg



    Also halte Dich nicht mit Nr. 5 auf. Der ist nur ein notwendiger Schritt auf dem langen Weg, der uns von irdischen Sorgen frei und unabhängig macht. :opa:


    Nicht alles auf diesem Weg wird schön sein Schopi, aber Opfer müssen halt gebracht werden. :hehehe:


    giphy.gif

  • Oh, ich bin absoluter SciFi-Fan und ich würde alles unterschreiben was du so schön aufgeschrieben hast und noch mehr was mir gerade nicht einfällt.

    Was die Unsterblichkeit anbelangt läuft auf Netflix gerade eine Serie Namens Altered Carbon, wo genau dieses Thema aufgenommen wird und wie die Menschheit, oder besser ein Teil der es sich leisten kann, damit umgeht.Und ich denke es ist gut getroffen.


    Aber in meinem 1 Post ging es ja um "intelligente" Maschinen die befähigt werden sollen autonom auf Menschen ballern zu dürfen.Ich frage mich gerade wie viele Punkte der UN-Charta da verletzt werden.Auf alle Fälle wird Punkt 1 unseres Grundgesetzes verletzt- dieser Vorgang wäre würdelos.


    Was auffiel in den Äußerungen der jungen Wissenschaftler und Forscher war, dass sie sich von den Dystopien ala Hollywood distanzieren wollten, aber mit ihren eigenen Sätzen haben sie diese erst bekräftigt.


    Eine "intelligente" Maschine die man selbst nicht mehr versteht ist was...?


    Eine autonome intelligente tödliche Maschine + Massenproduktion bedeutet was für diesen Planeten?

  • .....Was auffiel in den Äußerungen der jungen Wissenschaftler und Forscher war, dass sie sich von den Dystopien ala Hollywood distanzieren wollten, aber mit ihren eigenen Sätzen haben sie diese erst bekräftigt.

    Eine "intelligente" Maschine die man selbst nicht mehr versteht ist was...?

    Ich denke diese ganzen Entwicklungen werden sowieso durch ein sehr ausgefeiltes "Framing" flankiert werden, wie schon jetzt bei den Anfängen die jetzt gesellschaftsmässig anlaufen...

    Und der Witz ist, eher die Alten stößt das auf... allein wenn wir hier mit unseren Azubis über das sogenannte "Autonome Fahren" diskutieren. Und wenn ihnen dieses Kontradiktum auffällt, ist es Ihnen egal.....

  • Es gibt fliegende autonome Waffen, wie die israelische Harpy-Rakete. Diese handelt autonom sobald sie in der Luft ist. Dort wartet sie auf das Eintreffen von Radarsignalen und sobald sie die empfängt, greift sie den Sender an.

    Ich weiß, Du sagst jetzt wieder Du meinst etwas anderes, aber so weit ist das von einer KI gar nicht weg. Es ähnelt einer Selbstschussanlage, ist aber weit komplexer. Und es ist, wenn es einmal in der Luft ist ein vollautomatisches System. Der beeindruckende von Dir vorgestellte Laufroboter könnte ähnliches tun und müsste dazu keine lernfähige Software besitzen. Ist die Büchse der Pandora nicht sowieso schon offen ? Die Diskussion müsste sich doch viel eher um autonome Waffensysteme, die keine Fernbedienung mehr brauchen, drehen - statt um künstliche Intelligenz. Künstliche Intelligenz beim Töten, hat nur eine moralische oder eine philosophische Ecke mehr - aber ob das dann noch was bringt ?

  • Daran hatte ich auch gedacht, d.H. mit Waffensystemen die in ihrem zugewiesenen Aufgabengebiet schon komplett autonom handeln ist die Tür weit offen.


    Andererseits, was nützt einem Militär z.b. ein komplett von seiner Entscheidungshoheit unabhängiges System, zumal mit einem hohen Gefahrenpotential ?

  • Die Harpy ist in meinen Augen nicht autonom in dem Sinne, wie es heutzutage für autonome Waffensysteme angestrebt wird. Sie ist für einen ganz speziellen Zweck programmiert und folgt exakt dieser Programmierung. Vermutlich hat ein Mensch auch noch jederzeit die Möglichkeit, dort einzugreifen.


    Autonome Systeme die heute entwickelt werden sollen aber auf Grund eigener Lageeinschätzung Gegner identifizieren und ausschalten. Sie sollen also auf Basis von eigenen Entscheidungen unter Umständen auch Menschen töten, ohne dass ein Mensch an dieser Entscheidung noch drehen kann. Das ist eine ganz andere Hausnummer.

    Religion wird von den einfachen Leuten als wahr, von den Weisen als falsch und von den Herrschern als nützlich angesehen.

    Lucius Annaeus Seneca

  • Daran hatte ich auch gedacht, d.H. mit Waffensystemen die in ihrem zugewiesenen Aufgabengebiet schon komplett autonom handeln ist die Tür weit offen.


    Andererseits, was nützt einem Militär z.b. ein komplett von seiner Entscheidungshoheit unabhängiges System, zumal mit einem hohen Gefahrenpotential ?


    Die Harpy ist in meinen Augen nicht autonom in dem Sinne, wie es heutzutage für autonome Waffensysteme angestrebt wird. Sie ist für einen ganz speziellen Zweck programmiert ...


    Eine Selbstschussanlage handelt auch autonom und das Beispiel mit der Harpy ist möglicherweise nicht ganz richtig, wenn die Programmierer ein Hintertürchen offen gelassen haben um in letzter Sekunde einzugreifen. Aber ohne das Hintertürchen ist es genau das was ich gemeint habe. Die Harpy reagiert halt nicht auf Bewegung sondern auf ein Radarsignal und dann bekämpft sie das Ziel. Eine in diesem Sinne völlig autonome Waffe.

    Warum wird bei der Diskussion um solche Waffen ein System wie die Harpy einfach ausgeklammert und immer auf die "Entscheidung der Maschine" so großen Wert gelegt ? Was entscheidet denn die KI ? Sie reagiert auf äußere Reizschwellen, die einprogrammiert sind oder die sie aus Lernalgorithmen nivelliert. Das ist im Grunde auch nur ein Automatismus. Und Militärs lieben billiges Material zum verheizen. Billig ist momentan noch der Schütze Arsch mit seinem MG. Schopis Laufroboter wäre zum verheizen (noch) viel zu teuer. Aber als Kampfroboter um das Grundstück superreicher Leute zu bewachen gut vorstellbar.

  • Der Unterschied ist simpel:


    Eine Selbstschussanlage ist in meinen Augen nichts anderes als eine simple Falle.


    Eine Harpy ist programmiert, auf den Ursprungsort eines Radarsignals zu feuern. Ob dabei Menschenleben gefährdet werden ist sowohl dem Programmierer als auch dem Hersteller der Waffe vollkommen egal, und wenn sie gestartet wird offensichtlich auch dem Bediener. Und derjenige ist für das erzielte Ergebnis dann auch genauso verantwortlich wie jemand, der eine Haubitze abfeuert.


    Die heute angedachte Version autonomer Waffensysteme soll aber ohne menschliche Begleitung z.B. in einem Kampfgebiet abgeladen werden, und dort dann auf Grund eigener Lagebeurteilung selbständig Entscheidungen treffen.


    Ich möchte nicht in der Haut der verantwortlichen Hersteller stecken, wenn das Ding auf Grund von Programmierfehlern einen Kindergarten auslöscht.

    Religion wird von den einfachen Leuten als wahr, von den Weisen als falsch und von den Herrschern als nützlich angesehen.

    Lucius Annaeus Seneca


  • Das trifft es aus meiner Sicht nicht richtig. Ein autonomes Waffensystem, welches auf einem Schlachtfeld abgeladen wird um "selbstständig" zu handeln, reagiert auf Reize wie die Selbstschussanlage und die Harpy.
    Sagen wir, der Reiz ist eine Waffe in der Hand eines Menschen. Die KI muss also eine Waffe identifizieren, bevor sie feuert. Da kann es natürlich passieren, dass sie Fehler macht und den Regenschirm in der Hand der Kindergärtnerin oder das Spielzeug-Laserschwert in der Hand eines Vierjährigen als Waffe identifiziert. Eine intelligente Entscheidung ? Wohl eher nicht. Ein falsch interpretierter Reiz.