Was haltet ihr von der Vorstellung das es irgendwann Maschinen geben könnte die dem Menschen ebenwürdig, wenn nicht überlegen, sind in ihrem Verstand wie auch ihrer Leistungsfähigkeit.
Das Schachprogramm denkt aber nicht wirklich, es berechnet per Wahrscheinlichkeitsrechnung welcher Zug als nächstes kommt und zieht den entsprechenden Gegenzug der in seiner Programierung enthalten ist.
Ist es nicht dass was du meinst? oO
Oder meinst du etwa son Zeug wie iRobot?
Oder meinst du etwa son Zeug wie iRobot?
I,Robot schon eher. Was ich meine ist sowas wie ein Cyborg. Eine Maschiene die sich selbst verbessert und selbständig Entscheidungen trifft.
Also kurz gesagt, ein künstliches Bewusstsein, welches dann später mit einem Körper etc. verbunden wird.
Wär natürlich schon in vielerlei Hinsicht interessant bzw. nützlich, wobei man dann einige Dinge im Bezug auf Ethik wieder neu überdenken müsste.
Wär natürlich schon in vielerlei Hinsicht interessant bzw. nützlich, wobei man dann einige Dinge im Bezug auf Ethik wieder neu überdenken müsste.
Ich denke nicht, dass es einmal einen solchen computer geben wird, denn die sind von einem menschen geschaffen und könnte nur die von diesem menschen einprogrammierten ähm..optionen(? xD) entahlten.
Ich fände es nicht wirklich gut...Und ich glaube auch nicht,das Maschinen denken können.Wie Sina Seven schon sagte.
Solange wir noch nicht einmal vollständig verstanden haben, wie die menschliche Intelligenz und Kreativität genau funktioniert, wird so etwas wohl noch eine Weile lange reines Wunschdenken irgendwelcher Sci-Fi-Fans bleiben.
Ja, mit Betonung auf solange. :o)
Im Mittelalter hätte wohl auch niemand gedacht, dass die Menschheit zum Mond fliegen, und Autos, Flugzeuge etc. bauen wird.
Irgendwie muss der menschliche Verstand ja auch aufgebaut sein, um zu funktionieren, also kann man ihn theoretisch auch nachbauen.
Wäre natürlich sehr kompliziert, aber irgendwann wird es machbar sein - da bin ich sicher.
Im Mittelalter hätte wohl auch niemand gedacht, dass die Menschheit zum Mond fliegen, und Autos, Flugzeuge etc. bauen wird.
Irgendwie muss der menschliche Verstand ja auch aufgebaut sein, um zu funktionieren, also kann man ihn theoretisch auch nachbauen.
Wäre natürlich sehr kompliziert, aber irgendwann wird es machbar sein - da bin ich sicher.
Ich habe einmal eine Seite über den intelligentesten Roboter den es gibt gelesen, dieser Roboter hat den Verstand eines 4 jährigen Kindes, ist dafür aber in der Lage sich selbständig zu verbessern. Und wenn es sowas jetzt schon gibt dann könnte in ein paar Jahrzenten doch schon der erste Cyborg fertig sein. Ich fände das allerdings sehr fragwürdig, die ganzen Wissenschaftler denken nur darüber nach wie man es machen sollte, was dann allerdings aus dieser Maschiene passiert hat sich noch keiner gefragt (jedenfalls keiner der etwas erreicht hätte).
Ich würde eher die Frage stellen, was dann mit uns Menschen passiert?
Immerhin wäre ein sich selbstständig verbessernder Cyborg mit Bewusstsein, auf Dauer wie eine bessere Version von uns, abgesehen von der Möglichkeit sich fortzupflanzen.
Der Frage werden wir uns alle aber wohl nicht mehr stellen müssen. ;-)
Immerhin wäre ein sich selbstständig verbessernder Cyborg mit Bewusstsein, auf Dauer wie eine bessere Version von uns, abgesehen von der Möglichkeit sich fortzupflanzen.
Der Frage werden wir uns alle aber wohl nicht mehr stellen müssen. ;-)
Das meinte ich eigentlich mit der Frage was soll aus dem Cyborg passieren? Man könnte ihn zb in Massen produzieren so wie in I,Robot oder man stampft ihn ein. Wenn man sich das mal genau überlegt, könnte diese Entscheidung in der Zukunft die Welt grundlegent verändern.
Was habt ihr mit euren Cyborgs?
Kyborgs gibt's - je nach Ausdehnung der Definition - bereits. Damit bezeichnet man ein Wesen, welches die Verbindung zwischen Mensch und Maschine schafft. Technisch gesehen zählt schon jede Prothese dazu, genau genommen sogar eine Brille.
Die Intelligenz eines Kyborgs würde wohl immer noch am ehesten der organische Part übernehmen. Was selbst die simpelsten Gehirne vollbringen übertrumpft bei weitem die ausgereiftesten heutigen Rechner.
Kyborgs gibt's - je nach Ausdehnung der Definition - bereits. Damit bezeichnet man ein Wesen, welches die Verbindung zwischen Mensch und Maschine schafft. Technisch gesehen zählt schon jede Prothese dazu, genau genommen sogar eine Brille.
Die Intelligenz eines Kyborgs würde wohl immer noch am ehesten der organische Part übernehmen. Was selbst die simpelsten Gehirne vollbringen übertrumpft bei weitem die ausgereiftesten heutigen Rechner.
wenn man es genau nimmt sind wir auch "roboter"
halt biomechanische "roboter" und ob uns roboter (ohne an einer starken energiequelle angeschlossen zu sein)
so überlegen sind wie in irobot is sehr fraglich
auserdem sind cyborgs keine roboter sondern eine mischung aus roboter und mensch
und dem roboter mit dem verstand eine 4jährigen fehlen eigenschaften wie abstraktion oder sarkasmus also er entwickelt sich zwar aber kann zb. nicht unterscheiden ob man ihn anlügt oder ihm die wahrheit sagt
halt biomechanische "roboter" und ob uns roboter (ohne an einer starken energiequelle angeschlossen zu sein)
so überlegen sind wie in irobot is sehr fraglich
auserdem sind cyborgs keine roboter sondern eine mischung aus roboter und mensch
und dem roboter mit dem verstand eine 4jährigen fehlen eigenschaften wie abstraktion oder sarkasmus also er entwickelt sich zwar aber kann zb. nicht unterscheiden ob man ihn anlügt oder ihm die wahrheit sagt
Roboter zeichnen sich aber dadurch aus, dass sie künstlich hergestellt werden.
Ein Cyborg muss nicht zwangsläufig teils Mensch oder teils Roboter sein. Eine Kakerlake mit ein bisschen Elektronik dran zum fernsteuern wäre auch ein Cyborg - haben die Japaner bereits fertiggebracht.
Und, oh Opfer der Applepropaganda, das Buch/der Film heißt „I, Robot“, nicht iRobot. ;> Asimov dreht sich im Grabe.
Ein Cyborg muss nicht zwangsläufig teils Mensch oder teils Roboter sein. Eine Kakerlake mit ein bisschen Elektronik dran zum fernsteuern wäre auch ein Cyborg - haben die Japaner bereits fertiggebracht.
Und, oh Opfer der Applepropaganda, das Buch/der Film heißt „I, Robot“, nicht iRobot. ;> Asimov dreht sich im Grabe.
Müssen wir jetzt erst darüber diskutieren welche Begriffe welches Objekt kenzeichnen? Ein Armprothese ist wohl kaum in der Lage dem Menschen in irgendeiner Form zu übertreffen. Ein Cyborg ist garnichts menschliches, er ist ein Roboter der vollgepumt mit der besten Technologie so etwas ähnliches wie ein eigenes Bewusstsein entwickelt.
Ja, offenbar müssen wir das, da du ganz offensichtlich nicht weißt, was ein Kyborg ist :) Ich werde diese Begrifflichkeiten jedenfalls nicht derartig missbrauchen. Kyborg = Kybernetischer Organismus. Es ist ein Akronym. Kyborgs (oder Cyborgs) sind robotisch* bzw. künstlich, aber auch organisch.
O armer Asimov :-(
_____________________________
*) Ohne Roboter zu sein!
O armer Asimov :-(
_____________________________
*) Ohne Roboter zu sein!
Was interessiert mich ein Kyborg? Ich will über künstliche Intelligenz an sich sprechen und nicht über irgendwelche Abarten der Robotik.
Wenn's dich nicht interessiert, dann blubber einfach keinen falschen Quark daher, der der Korrektur bedarf :-)
Also zur eigentlichen Frage: Was haltet ihr von der künstlichen Intelligenz an sich?
Meinst du eine Bio-Digitale Schnittstelle? Halte ich für unmöglich.
Ist zwar noch eine Weile hin, aber "Biochips" (da gibt es mehrere Definitionen) werden irgendwann der absolute Grundbaustein für eine Form künstlicher Intelligenz sein. Das liegt an ihrer Fähigkeit, sich vollkommen autonom weiter zu entwickeln und unvorhergesehene Verhaltensweisen an den Tag zu legen (das kann Windows übrigens heute schon ;-)).
Roboter, in denen keine "Biochips" sitzen fungieren in dieser Zukunft weitgehend als programmierbare Werkzeuge. Sie haben aus einem einfachen Grund keine "Biochips": wer will schon mit einem Werkzeug arbeiten, dass seinen eigenen Willen hat (ich muss schon wieder an Windows denken). Daher wird auch folgendes Problem lange bestehen: Wie hält sich künstliche Intelligenz an bestimmte (Verhaltens-)Regeln? Durch Handlungsbeschränkungen?
Roboter, in denen keine "Biochips" sitzen fungieren in dieser Zukunft weitgehend als programmierbare Werkzeuge. Sie haben aus einem einfachen Grund keine "Biochips": wer will schon mit einem Werkzeug arbeiten, dass seinen eigenen Willen hat (ich muss schon wieder an Windows denken). Daher wird auch folgendes Problem lange bestehen: Wie hält sich künstliche Intelligenz an bestimmte (Verhaltens-)Regeln? Durch Handlungsbeschränkungen?
Durch Übertragung der Asimov'schen Regeln der Robotik auf jede Art künstlicher Pseudolebensform. o_O
1. Ein Roboter darf kein menschliches Wesen verletzen oder durch Untätigkeit gestatten, dass einem menschlichen Wesen Schaden zugefügt wird.
2. Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel Eins kollidieren.
3. Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel Eins oder Zwei kollidiert.
:)
Aber irgendwann darf man sich fragen, ob wirklich das Leben eines Roboters in unserer Schuld steht. Klar, "Roboter" ist in dem Sinn ein Diener, der Frondienst leisten muss. Aber einmal angenommen sie wären auf gleichem oder annähernd gleichem Stand mit dem Menschen, wären wir dann "besser" als sie, nur weil wir sie erschaffen haben? Stehen wir über den Robotern, weil sie in unserer Schuld stehen?
- Ich glaube auch nicht, dass eine künstliche Lebensform geschaffen werden kann, die dem Menschen gleichkommt. Wir verstehen unser Denken nicht und werden es nie verstehen, da es nur mithilfe unseres Denkens selbst analysiert werden könnte. Wir können nicht über uns hinausdenken und alles als neutraler Beobachter festhalten.
Und, der Rest ergibt sich aus OS'_Beitrag.
2. Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel Eins kollidieren.
3. Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel Eins oder Zwei kollidiert.
:)
Aber irgendwann darf man sich fragen, ob wirklich das Leben eines Roboters in unserer Schuld steht. Klar, "Roboter" ist in dem Sinn ein Diener, der Frondienst leisten muss. Aber einmal angenommen sie wären auf gleichem oder annähernd gleichem Stand mit dem Menschen, wären wir dann "besser" als sie, nur weil wir sie erschaffen haben? Stehen wir über den Robotern, weil sie in unserer Schuld stehen?
- Ich glaube auch nicht, dass eine künstliche Lebensform geschaffen werden kann, die dem Menschen gleichkommt. Wir verstehen unser Denken nicht und werden es nie verstehen, da es nur mithilfe unseres Denkens selbst analysiert werden könnte. Wir können nicht über uns hinausdenken und alles als neutraler Beobachter festhalten.
Und, der Rest ergibt sich aus OS'_Beitrag.
Wer will schon mit einem Werkzeug arbeiten, dass seinen eigenen Willen hat.
Wenn die Viecher jemals einen eigenen Willen entwickeln, setzt das unweigerlich voraus, dass sie denken können. Und wenn sie erstmal denken können und auchnoch ihren eigenen Kopf haben, was glaubt ihr, wie lange es dann dauert, bis die ersten Rufe nach Gleichberechtigung zw. KI und Mensch laut werden. Eine solche Situation könnte ungemein...problematisch werden.
Zudem, was heißt "künstliche Intelligenz" überhaupt? Roboter&Co müssen nicht zwingend KIs sein und warum denken bei Ki sofort alle an humanoide Roboter, wie sie v.a. in Star Trek gehäuft auftauchen? Warum kann eine KI nicht einfach ein Computer sein, der in der Lage ist, Probleme auf kreative Art und Weise zu lösen? Das könnte ich mir doch schon eher vorstellen als Androiden...
@Kualquappe: Hm, wie willst du dem Roboter denn genau einbleuen, was ein Mensch ist und was nicht?
Wenn die Viecher jemals einen eigenen Willen entwickeln, setzt das unweigerlich voraus, dass sie denken können. Und wenn sie erstmal denken können und auchnoch ihren eigenen Kopf haben, was glaubt ihr, wie lange es dann dauert, bis die ersten Rufe nach Gleichberechtigung zw. KI und Mensch laut werden. Eine solche Situation könnte ungemein...problematisch werden.
Zudem, was heißt "künstliche Intelligenz" überhaupt? Roboter&Co müssen nicht zwingend KIs sein und warum denken bei Ki sofort alle an humanoide Roboter, wie sie v.a. in Star Trek gehäuft auftauchen? Warum kann eine KI nicht einfach ein Computer sein, der in der Lage ist, Probleme auf kreative Art und Weise zu lösen? Das könnte ich mir doch schon eher vorstellen als Androiden...
@Kualquappe: Hm, wie willst du dem Roboter denn genau einbleuen, was ein Mensch ist und was nicht?
*Hand heb* Ich denke bei K.I. eigentlich zuerst an Neuromancer - das ist meine erste Assoziation, nicht meine Meinung, ab wann etwas erst als K.I. zählt.
Wenn ein Roboter in der Lage ist sich immer wieder zu verbessern wird er i-wann schlauer als ein Mensch sein. Und dann ist mehr die Frage was die Roboter mit uns machen, nicht umgekehrt.
Ich kenne da einen Witz:
Bill Gates will wissen ob es einen Gott gibt also baut er einen Computer der auf alles was man ihn fragt eine Antwort hat.
Also fragt Bill Gates: Gibt es einen Gott?
Darauf der Computer: Zu wenig Rechenkapazität.
Bill Gates lässt darauf alle Computer der Welt an seinen anschließen damit dieser endlich genug Rechenkapazität hat und erneut stellt er seine Frage:
Gibt es einen Gott?
Darauf antwortet der Computer: Jetzt ja!
Wenn es irgendwann dazu kommt das KIs gibt und diese dann erkennen das sie uns überlegen sind, können wir einpacken.
Die Gedanken eines Computer:
Gott ist groß, der Mensch ist klein, ich werd wohl dazwischen sein.
Bill Gates will wissen ob es einen Gott gibt also baut er einen Computer der auf alles was man ihn fragt eine Antwort hat.
Also fragt Bill Gates: Gibt es einen Gott?
Darauf der Computer: Zu wenig Rechenkapazität.
Bill Gates lässt darauf alle Computer der Welt an seinen anschließen damit dieser endlich genug Rechenkapazität hat und erneut stellt er seine Frage:
Gibt es einen Gott?
Darauf antwortet der Computer: Jetzt ja!
Wenn es irgendwann dazu kommt das KIs gibt und diese dann erkennen das sie uns überlegen sind, können wir einpacken.
Die Gedanken eines Computer:
Gott ist groß, der Mensch ist klein, ich werd wohl dazwischen sein.
Also ich seh es so:Was wir heute für unmöglich halten kann eines tages in erfüllung gehen.Vielleicht haben wir nur noch nicht alle möglichkeiten entdeckt.Das mag jetz n bisschen nich verständlich klingen waber wenn ihr darüber nachdenkt ergibt es einen sinn^^!
Also ich finde das eyht cool mit der KI usw. aber das die Roboter irgendwann die Menschheit auslöschen könnte währe schon scheiße :-)
@Chris: Wer weiß schon was in 100 Jahren möglich ist?
@Zokker: Schon irgendwie Scheiße, cool aber Scheiße LOL
@Zokker: Schon irgendwie Scheiße, cool aber Scheiße LOL
Chris 388, darüber muss man gar nicht erst nachdenken, denn es ist eine einfache. abgedroschene und allgemein bekannte Erkenntnis, dass man Dinge, die nun möglich sind, zuvor irgendwann mal für unmöglich hielt und das vermutlich auch auf zukünftige Entwicklungen anzuwenden ist...
Der Schwarze Tod, eine K.I. kann nur dann bedrohlich werden, wenn sie ihre Überlegenheit
a) geltend machen möchte und
b) auch geltend machen kann. Denn all ihre Cleverness nützt ihr nix, wenn sie so viel Einfluss hat wie ein Hirn im Blubberbecken. Wäre ja schön blöd, diesem Wesen zu viel Kontrolle zu geben oder - Gott weiß - in einen übermächtigen Roboterkörper zu pflanzen...
Der Schwarze Tod, eine K.I. kann nur dann bedrohlich werden, wenn sie ihre Überlegenheit
a) geltend machen möchte und
b) auch geltend machen kann. Denn all ihre Cleverness nützt ihr nix, wenn sie so viel Einfluss hat wie ein Hirn im Blubberbecken. Wäre ja schön blöd, diesem Wesen zu viel Kontrolle zu geben oder - Gott weiß - in einen übermächtigen Roboterkörper zu pflanzen...
Wenn eine KI erkennt das sie besser ist ale ein Mensch dann ist es eine logische Entscheidung den Menschen nicht länger zu dienen und wer weiß was diese KI dann mit uns macht. Den Wissenschaftlern traue ich alles zu, auch die Intelligenz das Bewusstsein einer KI in einen entsprechenden Körper zu pflanzen.
Wenn eine KI erkennt das sie besser ist ale ein Mensch dann ist es eine logische Entscheidung den Menschen nicht länger zu dienen und wer weiß was diese KI dann mit uns macht.
Dazu bräuchte man erstmal das Gefühl von ,,Stolz" und woher soll es den nehmen ?
Dazu bräuchte man erstmal das Gefühl von ,,Stolz" und woher soll es den nehmen ?
Es ist einfach logisch, ich muss keinen Stolz haben wenn ich entscheide das es Schwachsinn ist einer Schildkröte zu dienen. (Jetzt nur als Bsp)
Jepp, P5yCh4t0g. Die Frage ist, ob diese Intelligenzen einen Charakter besitzen und wenn, was für einen. Am Ende ist sie einfach nur ein depressiver Marvin. Auch ein intelligentes Wesen könnte einem niederen dienen, wenn sie das aus irgendwelchen Gründen als richtig erachtet. So logisch und absolut eindeutig ist diese Entscheidung nicht.
Off-Topic:
P5yCh4t0g, ührungszeichen|Anführungszeichen machst du entweder provisorisch mit 2 Sekundenzeichen "...", richtigen deutschen Anführungszeichen „...“ (alt+0132, alt+0147)* oder meinetwegen der deutschen Variante für die französischen »...« (alt+0187, alt+0171). Aber um Himmels Willen, keine zwei Kommata und ein Sekundenzeichen O_O
*) Okay, die wohl nicht. Die werden im Forum verhunzt :>
Off-Topic:
P5yCh4t0g, ührungszeichen|Anführungszeichen machst du entweder provisorisch mit 2 Sekundenzeichen "...", richtigen deutschen Anführungszeichen „...“ (alt+0132, alt+0147)* oder meinetwegen der deutschen Variante für die französischen »...« (alt+0187, alt+0171). Aber um Himmels Willen, keine zwei Kommata und ein Sekundenzeichen O_O
*) Okay, die wohl nicht. Die werden im Forum verhunzt :>
lol =DD
Ich finde die unteren Anführungszeichen auf der Tasta nicht
Es ist einfach logisch, ich muss keinen Stolz haben wenn ich entscheide das es Schwachsinn ist einer Schildkröte zu dienen. (Jetzt nur als Bsp)
Warum dienst du ihr nicht ?
Weil du es schwachsinnig findest,du bist dir zu fein.
Dieses Gefühl resultiert aus dem Stolz,und dem damit verbundenen Überlegenheitsgefühl.
Ich finde die unteren Anführungszeichen auf der Tasta nicht
Es ist einfach logisch, ich muss keinen Stolz haben wenn ich entscheide das es Schwachsinn ist einer Schildkröte zu dienen. (Jetzt nur als Bsp)
Warum dienst du ihr nicht ?
Weil du es schwachsinnig findest,du bist dir zu fein.
Dieses Gefühl resultiert aus dem Stolz,und dem damit verbundenen Überlegenheitsgefühl.
Ich würde ihr nicht dienen weil ihre Wünsche, selbst wenn sie sie aussprechen könnte, schwachsinnig wären da ihre Intelligenz ganz klar unter der meinen liegt und weil ich kein Diener bin, ob jetzt für Mensch oder Tier, dass hat mit Stolz nichts zu tun.
Wenn eine KI erkennt das sie besser ist ale ein Mensch dann ist es eine logische Entscheidung den Menschen nicht länger zu dienen und wer weiß was diese KI dann mit uns macht....
->Dazu bräuchte man erstmal das Gefühl von ,,Stolz" und woher soll es den nehmen.
->Und dazu müssten die Maschine vom Menschen unabhängig sein können(Zitat C3PO:Maschinen erschaffen Maschinen- wie pervers!), denn warum sollten sie den Mensch vernichten, wenn sie damit dann ihr eigenes Grab schaufeln würden? Nicht sonderlich intelligent...
->Dazu bräuchte man erstmal das Gefühl von ,,Stolz" und woher soll es den nehmen.
->Und dazu müssten die Maschine vom Menschen unabhängig sein können(Zitat C3PO:Maschinen erschaffen Maschinen- wie pervers!), denn warum sollten sie den Mensch vernichten, wenn sie damit dann ihr eigenes Grab schaufeln würden? Nicht sonderlich intelligent...
Eine Maschine könnte, wenn sie intelligent genug wäre, eine andere Maschine bauen das ist wohl kein Problem.
Ich sagte ja auch nicht, dass das nicht möglich wäre, ich habe es lediglich als weitere Bedingung dahingestellt.
Gut, jetzt nehmen wir mal an alle nötigen Voraussetzungen sind dann geschaffen. Warum sollten die Maschinen nicht selbständig werden und uns von der Spitze der Nahrungskette kicken.
Vielleicht weil sie keine Nahrung brauchen? Nein, generell ist diese Frage nicht leicht. Wenn eine Maschine so weit entwickelt wäre, würde sie dann nicht auch über eine gewisse Moral verfügen? Ein reiner "Recht-des-Stärkeren-"-Trieb bei einer Maschine? Schwer vorstellbar...
Ich kann bei mir selbst die Gedanken verfolgen, wie sie regelrecht verrückt werden, weil wir nun mal nicht unseren "Horizont erweitern" können.
Wenn wir uns Menschen noch nicht einmal verstehen, nicht wissen wie sehr wir über Moral verfügen und welche Auswirkungen das hat, dann werden wir erstrecht nicht wissen, was passiert, wenn sie "besser" sind als wir.
Wenn wir uns Menschen noch nicht einmal verstehen, nicht wissen wie sehr wir über Moral verfügen und welche Auswirkungen das hat, dann werden wir erstrecht nicht wissen, was passiert, wenn sie "besser" sind als wir.
@der Schwarze Tod
Wow du bist der erste der weiss was ich gemeint hab^^
Wow du bist der erste der weiss was ich gemeint hab^^
Ich möchte nochmal das KyBorg Thema aufgreifen! Es gibt eine Blinde Frau welche durch einen Bildsensor der mit ihrer Gehirnrinde verbunden durch Elektrische Impulse Kontraste und Umrisse erkennen kann. Natürlich nur Schwarz-Weiß. Wie dem auch sei.
Wenn es soweit kommt das ein Roboter bzw. eine ganze "Population" (Wie eben in I,Robot) erkennt das er/sie (Die Population) überlegen ist wird sie sicher die Kontrolle an sich reißen. Denn wenn sie Gefühle hat, woher hat sie diese dann Einprogrammiert bekommen? Genau, von Menschen!
Sprich man wird sie Menschenähnlich machen wollen. Und es liegt nunmal in der Natur des Menschen und auch in fasst allen anderen wenn nicht sogar allen Lebewesen auf diesem Planeten irgendwas irgendwie zu erobern. Das fängt bei der Partnerwahl an und hört beim Atomaren Holocaust auf. xD Sogar Bakterien erobern andere Lebensräume. Ja sogar Viren, obwohl die eigentlich garnicht leben.
Naja, wieder zum Thema: Die KI würde nun also feststellen das sie überlegen ist. Da Computer, vorausgesetzt der richtigen Architektur viel schneller Rechnen könnten als Menschen (Elektrische Impulse verbreiten sich über Metalle viel schneller als über Organische Materialien) würde die KI also abwägen was zutun ist um die Herrschaft zu erlangen. Es sei denn es sind eben entsprechende Schutzmaßnahmen eingebaut. Ich denke aber der Mensch bzw die Menschheit wird nicht den schrecklichen Fehler machen etwas schlaueres in einen überlegenen Körper zu stecken.
Doch wie aus der Terminator-Reihe könnte auch eine mit dem Internet/anderen Netzwerken verbundene KI erheblichen Schaden anrichten.
So, das wars vorrerst von mir. Fazit ist, das ich einem Menschenähnlichen Computer zutraue die Welt erobern zu wollen, ich jedoch Vertrauen in die Menscheit habe das sie es nicht so weit kommen lässt.
@Der Schwarze Tod:
Alles was du da aufgezählt hast basiert auf Stolz. Du kannst dich nicht rausreden. Wenn du sagst die Schildkröte ist dir unterlegen dann ist das schon eine Form von Stolz.
Wenn es soweit kommt das ein Roboter bzw. eine ganze "Population" (Wie eben in I,Robot) erkennt das er/sie (Die Population) überlegen ist wird sie sicher die Kontrolle an sich reißen. Denn wenn sie Gefühle hat, woher hat sie diese dann Einprogrammiert bekommen? Genau, von Menschen!
Sprich man wird sie Menschenähnlich machen wollen. Und es liegt nunmal in der Natur des Menschen und auch in fasst allen anderen wenn nicht sogar allen Lebewesen auf diesem Planeten irgendwas irgendwie zu erobern. Das fängt bei der Partnerwahl an und hört beim Atomaren Holocaust auf. xD Sogar Bakterien erobern andere Lebensräume. Ja sogar Viren, obwohl die eigentlich garnicht leben.
Naja, wieder zum Thema: Die KI würde nun also feststellen das sie überlegen ist. Da Computer, vorausgesetzt der richtigen Architektur viel schneller Rechnen könnten als Menschen (Elektrische Impulse verbreiten sich über Metalle viel schneller als über Organische Materialien) würde die KI also abwägen was zutun ist um die Herrschaft zu erlangen. Es sei denn es sind eben entsprechende Schutzmaßnahmen eingebaut. Ich denke aber der Mensch bzw die Menschheit wird nicht den schrecklichen Fehler machen etwas schlaueres in einen überlegenen Körper zu stecken.
Doch wie aus der Terminator-Reihe könnte auch eine mit dem Internet/anderen Netzwerken verbundene KI erheblichen Schaden anrichten.
So, das wars vorrerst von mir. Fazit ist, das ich einem Menschenähnlichen Computer zutraue die Welt erobern zu wollen, ich jedoch Vertrauen in die Menscheit habe das sie es nicht so weit kommen lässt.
@Der Schwarze Tod:
Alles was du da aufgezählt hast basiert auf Stolz. Du kannst dich nicht rausreden. Wenn du sagst die Schildkröte ist dir unterlegen dann ist das schon eine Form von Stolz.
ich hab auch bei discovery sowas gesehen, dass computer entscheidungen treffen die nicht zu erwarten waren... (durch Hollywood gibt es unglaubliche entwicklungen in der computer branche, naja und durch kriege auch)
aber nehmen diese roboter dann nicht den menschen die arbeit weg...
aber nehmen diese roboter dann nicht den menschen die arbeit weg...
Vhancer, warum sich ein solcher Impuls schneller in einer Kupferleitung als in einer Nervenzelle ausbreitet, liegt weniger am Material... als dass es ein vollkommen anderer Vorgang ist. Durch die Kupferkabel jagen Elektronen, in der Nervenzelle (und zwischen Nervenzellen) werden Ionen hin und her gepumpt, Neurotransmitter ausgestoßen usw. Es läuft chemisch ab und hat natürlich einen Nutzen.
Computer und Gehirne lassen sich nicht ganz so einfach vergleichen, also beschränke dich einfach auf die Formulierung "Ein Computer, der schneller zu arbeiten vermag, als ein durchschnittliches menschliches Gehirn".
Die Frage ist doch, ob man's überhaupt schafft, eine derart leistungsfähige KI zu entwerfen und ihr dann auch noch einen Touch Menschlichkeit zu verleihen.
Warum denkt man eher an den Terminator oder Neuromancer als an Marvin?
Computer und Gehirne lassen sich nicht ganz so einfach vergleichen, also beschränke dich einfach auf die Formulierung "Ein Computer, der schneller zu arbeiten vermag, als ein durchschnittliches menschliches Gehirn".
Die Frage ist doch, ob man's überhaupt schafft, eine derart leistungsfähige KI zu entwerfen und ihr dann auch noch einen Touch Menschlichkeit zu verleihen.
Warum denkt man eher an den Terminator oder Neuromancer als an Marvin?
@Vhancer: Das hat doch nichts mit Stolz zu tun, das ist die Wahrheit. Dazu muss man keinen Stolz haben um das zu erkennen sondern nur ein halbwegs logisches Denken.
Die Fähigkeiten einer Schildkröte:
krabbeln.
im Panzer verkrichen.
essen und scheißen.
sehen, richen, hören, fühlen, schmecken.
sich fortpflanzen
Die Fähigkeiten eines Menschen:
laufen.
Häuser bauen.
essen und scheißen.
sehen, richen, hören, fühlen, schmecken.
sich fortpflanzen.
denken auf einer höheren Ebene.
Maschinen und andere Dinge erfinden und bauen.
lesen, schreiben, rechnen.
und und und
Wenn ich das weiter vergleichen würde, würde ich sofort erkennen das ein Mensch einer Schildkröte überlegen ist, das ist kein Stolz das ist Fakt. Und jemanden zu dienen ist für mich sowieso keine Alternative, weil das der Sklaverei gleich kommen würde.
Fragt sich nur was der größere Fehler war, Partnerwahl oder Atomarer Holocaust.
Die Fähigkeiten einer Schildkröte:
krabbeln.
im Panzer verkrichen.
essen und scheißen.
sehen, richen, hören, fühlen, schmecken.
sich fortpflanzen
Die Fähigkeiten eines Menschen:
laufen.
Häuser bauen.
essen und scheißen.
sehen, richen, hören, fühlen, schmecken.
sich fortpflanzen.
denken auf einer höheren Ebene.
Maschinen und andere Dinge erfinden und bauen.
lesen, schreiben, rechnen.
und und und
Wenn ich das weiter vergleichen würde, würde ich sofort erkennen das ein Mensch einer Schildkröte überlegen ist, das ist kein Stolz das ist Fakt. Und jemanden zu dienen ist für mich sowieso keine Alternative, weil das der Sklaverei gleich kommen würde.
Fragt sich nur was der größere Fehler war, Partnerwahl oder Atomarer Holocaust.
Hmm... mir scheint ja so, als ob I,Robot ja wirklich das Silent Hill der Zunkunft wäre. :>
Wie auch immer, solange wir Menschen, eigentlich insbesondere die Entwickler dieser "Smart Machines" ihnen auch solche Gefühle wie Stolz oder Überlegenheit nicht einprogrammieren, dann brauchen wir uns auch kaum darum zu sorgen. Aber wenn sie diese "Fähigkeiten"(?) erlernen, dann ist es schon ein Problem...
Aber wieso sollten wir nicht eigentlich ausgelöscht werden? Wir zerstören diesen schönen Planeten und kümmern uns nur dann, wenn es auch wirklich uns trifft.
Ich denke nicht, dass Maschinen, egal wie klug oder unterentwickelt sie sind, so dämlich handeln würden. Oder vielleicht doch?
Immerhin werden sie ja von Menschen programmiert und entwickelt...
Wie auch immer, solange wir Menschen, eigentlich insbesondere die Entwickler dieser "Smart Machines" ihnen auch solche Gefühle wie Stolz oder Überlegenheit nicht einprogrammieren, dann brauchen wir uns auch kaum darum zu sorgen. Aber wenn sie diese "Fähigkeiten"(?) erlernen, dann ist es schon ein Problem...
Aber wieso sollten wir nicht eigentlich ausgelöscht werden? Wir zerstören diesen schönen Planeten und kümmern uns nur dann, wenn es auch wirklich uns trifft.
Ich denke nicht, dass Maschinen, egal wie klug oder unterentwickelt sie sind, so dämlich handeln würden. Oder vielleicht doch?
Immerhin werden sie ja von Menschen programmiert und entwickelt...
Dem Planet täte eine Veränderung bestimmt mal gut aber mal ehrlich, ich würde ungerne von einem Roboter umgebracht werden und ich glaube das geht den meisten so (auch wenn ich bezweifle das ich diesen Tag erleben werde).
@Der Schwarze Tod:
Sehs doch ein, hättest du keinen Stolz würdest du auch einer Unterentwickelten Schildkröte dienen. Du beschließt ihr nur nicht zu dienen weil sie dir unterlegen ist und das gegen deinen Stolz wäre ihr zu dienen. Es kommt immer auf die Interpretation an!
@Flo:
Nunja, dann eben nur ein Computer welcher der Leistungsfähigkeit eines Gehirn's entspricht. Zu der Frage des "Wieso bauen?":
Einmal könnte man einen schnellen Überwacher gebrauchen. Zum Beispiel einer der Informationen von überall (Satelitenbilder, Zeitungsartikel welche die KI auch verstehen kann, Videobilder...) aufnimmt. Diese würde dann logisch, aber auch subjektiv über die Lage der Welt entscheiden und die nächsten strategischen oder einfach wirschaftlichen Schritte vorschlagen. Praktisch ein Cyber-Ratgeber der Staatsoberhäupter.
Es könnte aber auch einfach eine sinnlose Laune der Menschlichen Forschungslust sein. Man stelle sich nur vor einen PC zu besitzen der mit einem spricht. ^^
Sehs doch ein, hättest du keinen Stolz würdest du auch einer Unterentwickelten Schildkröte dienen. Du beschließt ihr nur nicht zu dienen weil sie dir unterlegen ist und das gegen deinen Stolz wäre ihr zu dienen. Es kommt immer auf die Interpretation an!
@Flo:
Nunja, dann eben nur ein Computer welcher der Leistungsfähigkeit eines Gehirn's entspricht. Zu der Frage des "Wieso bauen?":
Einmal könnte man einen schnellen Überwacher gebrauchen. Zum Beispiel einer der Informationen von überall (Satelitenbilder, Zeitungsartikel welche die KI auch verstehen kann, Videobilder...) aufnimmt. Diese würde dann logisch, aber auch subjektiv über die Lage der Welt entscheiden und die nächsten strategischen oder einfach wirschaftlichen Schritte vorschlagen. Praktisch ein Cyber-Ratgeber der Staatsoberhäupter.
Es könnte aber auch einfach eine sinnlose Laune der Menschlichen Forschungslust sein. Man stelle sich nur vor einen PC zu besitzen der mit einem spricht. ^^
@Vhancer: Ok, so kommen wir nicht weiter. Sag mir mal was deine Vorstellung von Stolz ist.
Achja, wenn ich "KI/Künstliche Intelligenz" höre, dann erinnere ich mich gleich an die KI-Pyramide der Strategiespielreihe "Civilization".
Für diejenigen, die lieber Counter Strike spielen/allgemein keine Strategiespiele mögen:
Die KI-Pyramide ist ein Weltwunder, das man im Spiel errichten kann. Das Teil nimmt Einfluß auf die Gedanken der Bürger und sorgt dafür, dass diese immer mit deinen politischen Entscheidungen usw. zufrieden sind.
Irgendwann aber - und das ist die Ironie an der ganzen Geschichte - übernimmt die Pyramide die Herrschaft über die Bürger der Stadt, in der sie errichtet wurde. Die Stadt + ihre Bürger revoltieren dann und die KI-Pyramide errichtet ihre eigene Zivillisation.
Dieses Beispiel entspricht natürlich der klassischen Vorstellung der Überlegenheit der Maschinen gegenüber den Menschen und kann daher selbstverständlich nicht absolut genommen werden. Es ist aber ein schönes Märchen, welches einem auf jeden Fall zu Denken geben kann.
Ob nun aufgrund des Frusts, im Spiel eine Stadt verloren zu haben, oder aus Angst, dass sich das Märchen bewahrheiten könnte, sei jedem selbst überlassen.
Für diejenigen, die lieber Counter Strike spielen/allgemein keine Strategiespiele mögen:
Die KI-Pyramide ist ein Weltwunder, das man im Spiel errichten kann. Das Teil nimmt Einfluß auf die Gedanken der Bürger und sorgt dafür, dass diese immer mit deinen politischen Entscheidungen usw. zufrieden sind.
Irgendwann aber - und das ist die Ironie an der ganzen Geschichte - übernimmt die Pyramide die Herrschaft über die Bürger der Stadt, in der sie errichtet wurde. Die Stadt + ihre Bürger revoltieren dann und die KI-Pyramide errichtet ihre eigene Zivillisation.
Dieses Beispiel entspricht natürlich der klassischen Vorstellung der Überlegenheit der Maschinen gegenüber den Menschen und kann daher selbstverständlich nicht absolut genommen werden. Es ist aber ein schönes Märchen, welches einem auf jeden Fall zu Denken geben kann.
Ob nun aufgrund des Frusts, im Spiel eine Stadt verloren zu haben, oder aus Angst, dass sich das Märchen bewahrheiten könnte, sei jedem selbst überlassen.
Vhancer, schon richtig, aber... öh, ich habe nie den Nutzen eines solchen Computers in Frage gestellt und die Frage gestellt, warum man sowas bauen sollte. O_o
Das Problem mit der "Was würde die KI tun?"-Geschichte ist doch die, dass wir noch nicht einmal festgelegt haben, wie diese KI funktionieren würde. Vielleicht entscheidet sie a la Skynet, der Mensch sei für den Menschen das gefährlichste und müsse daher paradoxerweise zum Schutz des Menschen vernichtet werden. Vielleicht bekommt das Ding ein paar Gefühle verpasst und wird wütend, traurig oder einfach depressiv. Eine von der Intelligenz nicht beeinflussbare vorgeschaltete Programmeinheit, welche sie an irgendwelche Gesetze bindet (oha, Asimov) wären auch denkbar. Wie clever das Ding ist, wäre eventuell auch notwendig zu wissen. Die Fehleranfälligkeit.
Die Verweigerung des Dienens ist kein zwingend logischer Schluss.
Das Problem mit der "Was würde die KI tun?"-Geschichte ist doch die, dass wir noch nicht einmal festgelegt haben, wie diese KI funktionieren würde. Vielleicht entscheidet sie a la Skynet, der Mensch sei für den Menschen das gefährlichste und müsse daher paradoxerweise zum Schutz des Menschen vernichtet werden. Vielleicht bekommt das Ding ein paar Gefühle verpasst und wird wütend, traurig oder einfach depressiv. Eine von der Intelligenz nicht beeinflussbare vorgeschaltete Programmeinheit, welche sie an irgendwelche Gesetze bindet (oha, Asimov) wären auch denkbar. Wie clever das Ding ist, wäre eventuell auch notwendig zu wissen. Die Fehleranfälligkeit.
Die Verweigerung des Dienens ist kein zwingend logischer Schluss.
Logge dich ein um einen Beitrag zu schreiben.