Mich fasziniert dieses Thema schon seit Jahren. Durchaus angestoßen von movies wie K.I. oder der Terminator.
Ich glaube zwar, dass es noch Zeit braucht bis es umfassend zur Gefahr für die Menschen wird, aber die Spanne zwischen den einzelnen Teilerfolgen nimmt wirklich exponentiell zu. Ein Indikator ist die Chip Speicherfähigkeit bei gleichzeitiger Verkleinerung. Ich vermute mal, dass die Ideen dazu noch rein menschlich sind und Phantasie eine Rolle spielt.
Nur heute sind die Maschinen bereits soweit, dass sie aus ihren Fehlern Rückschlüsse ziehen bis sie rein mathematisch zur Lösung gelangen.
Im gleichen Maße wie die Intelligenz beim Computer zunimmt, stagniert sie beim Menschen. Ich habe in meinem Bekanntenkreis reichlich Leute, die es einen Sch..ss interessiert, wie etwas funktioniert, solange es funktioniert.
Ich stelle mir das so vor: Leute stranden an einer Küste, evt. sogar einer Insel. Wie machen wir Feuer, wenn die Feuerzeuge leer sind oder von vornherein nicht funktionieren? Obwohl alle Hilfemittel da sind, wären viele mit dem Problem überfordert , weil sie sich zuvor nie Gedanken dazu gemacht haben. Das werden dann Veganer aus der Not und nicht aus Überzeugung.
Sobald sich die Maschinen die Sinnfrage stellen, wird es für den Menschen gefährlich. Wäre andererseits auch interessant, wenn die Computer Moral hätten. Vielleicht würden die Drohnen den Abschuss nicht ausführen. Ha, ha.
Dann würden die Militärs dumm aus der Wäsche glotzen.
Aber im Ernst! Ab dem Moment, indem die Maschinen sich aus eigenem Antrieb reproduzieren , wird es Eng für uns.
Wir schauen mal.