ThailandTIP Forum
Thailand-Foren der TIP Zeitung => Technisches zu Computern und Internet => Thema gestartet von: Burianer am 28. August 2016, 07:41:43
-
Ein interessanter Artikel ueber die kuenstliche Intelligenz und deren Fortschritt.
Alles deutet darfhin, dass die kuenstliche Intelligenz den Menschen ueberholt und ihm gefaehrlich werden kann.
So schoen es auch sein mag, dass man sie ueberall einzetzen kann und vieles im Leben der Menschen vereinfacht, umso tragischer kann sie fuer die Zukunft werden.
Künstliche Intelligenz ist auf dem Vormarsch. Wir freuen uns über sprechende Smartphones, Lauf-Apps, selbstfahrende Autos oder hoffen, dass diese Technik bald vielen Menschen das Leben rettet. Doch sie hat auch eine andere Seite. Was ist, wenn sie eines Tages außer Kontrolle gerät?
Anerkannte Forscher warnen vor dieser Entwicklung. „Künstliche Intelligenz kann die großartigste Errungenschaft der Menschheit werden. Bedauerlicherweise kann sie auch die letzte sein“, fürchtet der weltbekannte Astrophysiker Stephen Hawking
http://www.focus.de/wissen/technik/sprechende-smartphones-selbstfahrende-autos-kuenstliche-intelligenz-segen-und-fluch-zugleich_id_5859608.html (http://www.focus.de/wissen/technik/sprechende-smartphones-selbstfahrende-autos-kuenstliche-intelligenz-segen-und-fluch-zugleich_id_5859608.html)
Wie die Geister, die der Zauberlehrling von Goethe rief, könnten KI-Maschinen unserer Kontrolle entgleiten
Wenn wir Maschinen entwickeln, die für uns alles tun, werden sie eines Tages schneller sein, als wir.
KI Tesla-Gründer Musk meint, sie sei bedrohlicher als Atomwaffen.
-
und obwohl man sich deser gefahr bewusst ist, wird man sie nicht aufhalten können.
denn die profitgier des einzelnen ist weitaus grösser als das gefahrenbewusstsein.
dementsprechend kann es durchaus sein, dass eines tages erst mal terminator wahr wird,
gefolgt von mad max.
also sollten wir nicht vergessen, uns ein wenig an die thai art anzupassen und nicht zu vergessen, ein wenig sanuk zu haben.
habe ich nur folgende probleme momentan:
ich rauche seit letzten montag wieder nicht.
warum eigentlich? ;]
mein deutscher freund hier ist seit 6 wochen und noch 2 wochen in d = ich bin brav zuhause und saufe nicht.
mein thai freund macht alle 2 jahre 3 monate alk-fastenzeit für buddha.
dieses jahr isses wieder soweit = ich bin brav zuhause und saufe nicht.
obwohl buri mich also daran erinnert, dass der spass im leben nicht zu kurz kommen sollte,
rauche und trinke ich nicht. meine grösste freude momentan im leben ist das forum :-)
wer ironie findet, darf sie behalten C--
mfg
-
Mich fasziniert dieses Thema schon seit Jahren. Durchaus angestoßen von movies wie K.I. oder der Terminator.
Ich glaube zwar, dass es noch Zeit braucht bis es umfassend zur Gefahr für die Menschen wird, aber die Spanne zwischen den einzelnen Teilerfolgen nimmt wirklich exponentiell zu. Ein Indikator ist die Chip Speicherfähigkeit bei gleichzeitiger Verkleinerung. Ich vermute mal, dass die Ideen dazu noch rein menschlich sind und Phantasie eine Rolle spielt.
Nur heute sind die Maschinen bereits soweit, dass sie aus ihren Fehlern Rückschlüsse ziehen bis sie rein mathematisch zur Lösung gelangen. {+
Im gleichen Maße wie die Intelligenz beim Computer zunimmt, stagniert sie beim Menschen. Ich habe in meinem Bekanntenkreis reichlich Leute, die es einen Sch..ss interessiert, wie etwas funktioniert, solange es funktioniert.
Ich stelle mir das so vor: Leute stranden an einer Küste, evt. sogar einer Insel. Wie machen wir Feuer, wenn die Feuerzeuge leer sind oder von vornherein nicht funktionieren? Obwohl alle Hilfemittel da sind, wären viele mit dem Problem überfordert , weil sie sich zuvor nie Gedanken dazu gemacht haben. Das werden dann Veganer aus der Not und nicht aus Überzeugung.
Sobald sich die Maschinen die Sinnfrage stellen, wird es für den Menschen gefährlich. Wäre andererseits auch interessant, wenn die Computer Moral hätten. Vielleicht würden die Drohnen den Abschuss nicht ausführen. Ha, ha.
Dann würden die Militärs dumm aus der Wäsche glotzen.
Aber im Ernst! Ab dem Moment, indem die Maschinen sich aus eigenem Antrieb reproduzieren , wird es Eng für uns.
Wir schauen mal.
-
Aber im Ernst! Ab dem Moment, indem die Maschinen sich aus eigenem Antrieb reproduzieren , wird es Eng für uns.
Es sind nicht die Maschinen, von denen evtl. Gefahr ausgeht.
Es ist die Programmierung - und darauf hat der Mensch (hoffentlich) immer Einfluss.
Schon 1942 formulierte der geniale Biochemiker und Autor Isaac Asimov:
Die Asimov’schen Gesetze :
Ein Roboter darf kein menschliches Wesen (wissentlich) verletzen oder durch Untätigkeit (wissentlich) zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.
Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.
Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.
Man beachte, dass die Gesetze hierarchisch aufgebaut sind.
Solange Programmierer dies beachten sind Hoppalas a la Terminator weitgehend ausgeschlossen.. . .
lg
-
und es wird niemals programmierer mit krimineller energie geben?
z.b. hey, roboter, raube eine bank aus und bring mir die millionen?
mfg
-
und es wird niemals programmierer mit krimineller energie geben?
Na klar, die gibt es heute schon - siehe kriminelle Hacker!
Auch Programmierer von Kampfdrohnen zähle ich sehr wohl dazu.
Aber für das potenzielle Opfer macht es dann keinen Unterschied, ob Maschine oder Mensch... . .
lg
-
??? ich denke mal, es wird so kommen wie bei Orsen Wels 1984.
Mittlerweile leben wir ja mitten drin.
So auch bei der kuenstlichen Intelligenz der Roboter, eines Tags ist es so weit, dass sie dem Menschen haushoch ueberlegen sind.
Ein gutes hat es, ich lebe dann wohl nichtmehr }}
-
Der "Kultfilm" dazu:
https://www.youtube.com/watch?v=afv9lSqilwk
-
Aber für das potenzielle Opfer macht es dann keinen Unterschied, ob Maschine oder Mensch... . .
das sehe ich nicht ganz so.
wenn mir gegenüber ein wütender, voller emotionen geladener thai in 10m entfernung mit einer pistole steht,
habe ich min. 50% chancen, dass er daneben schiesst.
die kampfdrohne dagegen wird wohl treffen...
also geht meiner meinung nach von einer gut programierten maschine eine höhere gefahr aus als von einem menschen.
mfg
-
Die Intelligenz einer Frau,waehrend eines Rosenkrieges ist
mindestens doppelt so gefaherlich,wie alle kuenstliche
Intelligenz zusammen.
Koennte so auf einem Kalenderblatt stehen.
Jock
-
@jock
100 % Übereinstimmung! {*
lg
-
@ jock
.....Die Intelligenz einer Frau,waehrend eines Rosenkrieges.......
ja lieber jock, und nicht nur im Rosenkrieg ... ich denke immer...
lg josef
-
Es gehört doch nicht viel dazu intelligenter als der Mensch zu sein,
Jedes Tier hat mehr Vernunft und würde nie sein Umfeld dermaßen verwüsten und zerstören
wie es der Mensch tut.
Meiner Meinung nach sind die Menschen völlig überbewertet und ich persönlich
stelle ihr Existenzrecht in Frage.Die Welt wäre schöner ohne die Menschen.
-
Gleich zwei Artikel in der heutigen FAZ,die sich mit kuenst-
licher Intelligenz beschaeftigen.
Dazu in letzter Zeit Berichte ueber selbstfahrende Autos u.s.w.
Da sollte doch einmal ein Member oder ein Computer,der sich
als Member ausgibt,erklaeren,was unter kuenstlicher Intelligenz
zu verstehen ist.Am Besten unter Heranziehen von praktischen
Beispielen.
Einen Kuehlschrank der Alarm schlaegt,weil die Milch ausge-
gangen ist,wuerde ich noch nicht als Beispiel von kuenstlicher
Intelligenz bezeichnen.
Und das selbstfahrende Auto,bei dem ich eingebe,ich will von
Schillerstrasse 38 zur Goethestrasse 46 auch noch nicht.
Vielleicht erst dann,wenn das Auto selbststaendig andere Ver-
kehrsteilnehmer,die es irgendwie behindern,verflucht oder mit
den richtigen Ausdruecken beschimpft.
Wo ist also die Grenze zwischen dem Ablauf einer Prozesssteuerung
und echter kuenstlicher Intelligenz ? Wie gefaehrlich kann sie
sich fuer den Einzelnen oder fuer die Gesellschaft herausstellen.
Jock
-
Hi
Der "Kultfilm" dazu: I Robot
ein weiterer Kultfilm,
aber bereits aus den 70'gern des vorigen Jahrhunderts "2001-Odyssee im Weltraum" von Stanley Kubrick..... (Zusammenfassung des ca. 3 Std dauernden Films auf 15 Min. reduziert:
https://www.youtube.com/watch?v=on42CLJPJ1k)
....wo ein Computer einer bestimmten Baureihe (HAL 9000), menschliche Gefuehle entwickelt, und so die Steuerung einer Raumstation uebernimmt.....
https://www.youtube.com/watch?v=ARJ8cAGm6JE Auszug daraus.....
lg h.
-
Hi hat das evtl. auch was damit zu tun.....? Oefters sind wir kurz davor...., dann wieder weit weg, entschliessen wir uns fuer eine andere "Richtung"......
....Erfahrung sammeln auf einem langen Weg, einer langen Reise, wo Deutungen und Gelerntes auch wieder "untergehen' oder "Unverstaendnis " bewirkt, da Bewusstseinszustaende sich auch rueckentwickeln somit oefters neue Ansaetze zur Ueberzeugungsarbeit gefunden werden muessen.....alles in Allem aber der "Fluss des Lebens"
Spannend gemacht, wie der "Macher" schreibt......Vorspulen bringt garnichts, wird nur aus dem Zusammenhang gerissen.....ganz in Ruhe anschauen Original ""The man from Earth"
https://www.youtube.com/watch?v=umpXC9e5gdc "Eine fiktive, unfassbare Geschichte....."
Viel Spass lG H.
-
Wo ist also die Grenze zwischen dem Ablauf einer Prozesssteuerung und echter kuenstlicher Intelligenz ?
Meiner bescheidenen Meinung nach und auch von "Fachleuten" (kann man überhaupt "Fachmann" für eine bis dato nicht existente Sache sein?) beginnt KI zu existieren, sobald Maschinen selbständig schlussfolgern können.
So wird es ja auch im Tierreich bei der Beurteilung mehr oder weniger angewandt.. . .
Für mich als Computermann stellt sich hier eine (momentan noch?) unüberbrückbare Hürde:
wie kann eine Maschine für sich selber einen Code generieren und implementieren -
jeder, der jemals mit Programmierung zu tun hatte, weiss, wie diffizil ein funktionierender Code aufgebaut ist
und vor allem braucht man zum Schreiben zwei wesentliche Eigenschaften:
Glasklare Analysefähigkeiten und eine gehörige Portion Fantasie -
und genau hier stossen Maschinen an ihre Grenzen.
Ergo braucht es immer den Menschen, wie schon vorher gepostet.
lg
edit:
Man kann in eine Programmierung Millionen und Abermillionen WENN-DANN-SCHLEIFEN einbauen, um gegen alle Eventualitäten gewappnet zu sein - es bleibt eine Programmierung von Menschenhand und somit keine Intelligenz im herkömmlichen Sinne.
-
Hier ein weiteres Beispiel für Schwierigkeiten mit "Künstlicher Intelligenz":
Moralisches Dilemma
Maschinen- Ethik: Wen würden Sie zu Tode fahren?
Innerhalb weniger Augenblicke über Leben und Tod zu entscheiden - diese Verantwortung wird selbstfahrenden Autos in Zukunft obliegen.
Doch auf Grundlage welcher moralischen Überlegungen soll sich die künstliche Intelligenz entscheiden, wenn es gilt, ein Menschenleben gegen ein anderes abzuwägen?
Ein Dilemma, mit dem jetzt auch Internetnutzer in einem Online- Experiment des MIT konfrontiert werden.
Weiterlesen hier in der Krone (http://www.krone.at/digital/maschinen-ethik-wen-wuerden-sie-zu-tode-fahren-moralisches-dilemma-story-527020)
lg
PS: Hoch interessant: innerhalb des Artikels den Link "Moral Machine" anklicken und selbst Entscheidungen treffen.. . .
-
??? Es ist immer schwierig, in konkreten Situationen zu entscheiden, da man doch vieles intuitiv macht.
Besteht eine direkte Gefahr, so entscheidet meist das Unterbewustsein, diese Gefahr abzuwenden.
Bringt man dadurch einen anderen in Gefahr , weiss ich nicht, wie man in kurzer Zeit entscheiden wuerde.
Abwaegen wird wohl zu lange dauern.
Das menschliche Gehirn ist darauf trainiert, Situationen abzuschaetzen und eine Handlung sofort einzuleiten. Bewusst oder unbewusst.
KI kann das nicht.
Gefuehle gibt es bei KI nicht, hier entscheidet die Rationalitaet. Wenn > dann.
Der Mensch hat doch viele Vorteile.
Er kann Gefuehle zeigen, hat Spantanitaet, Humor und kognitive Faehigkeiten, die man nicht Programmieren kann.
-
Mal einige Erklaerungen zur kuenstlichen Intelligenz.
Oft gehen wir damit um und merken es nicht.
In kaum einem Tech-Forschungsfeld gibt es solche Fortschritte wie bei der künstlichen Intelligenz (KI). Aber was ist das eigentlich genau? Und was bringt KI für die Zukunft? Die wichtigsten Antworten im Hintergrundformat "Endlich verständlich".
Von Andreas Albert, Markus Böhm, Anna Gröhn, Angela Gruber und Matthias Kremp / 4. Januar 2017
http://www.spiegel.de/netzwelt/gadgets/kuenstliche-intelligenz-turing-test-chatbots-neuronale-netzwerke-a-1126718.html (http://www.spiegel.de/netzwelt/gadgets/kuenstliche-intelligenz-turing-test-chatbots-neuronale-netzwerke-a-1126718.html)
Trend bei Elektronikmesse CES
Sprachsteuerung setzt sich durch
Die meisten Nutzer scheuen noch davor zurück, mit ihren elektronischen Geräten zu sprechen. Doch die Sprachsteuerung ist jetzt so weit entwickelt, dass sie nicht mehr aufzuhalten ist. Bei der Elektronikmesse CES ist sie schon jetzt allgegenwärtig.
http://www.n-tv.de/technik/Sprachsteuerung-setzt-sich-durch-article19473081.html (http://www.n-tv.de/technik/Sprachsteuerung-setzt-sich-durch-article19473081.html)
Stelle mir gerade vor, dass der Kuehlschrank, der Herd, die Mikrowelle etc miteinander verbunden sind.
He, Kuehlschrank, mach mir mal ein Wiener Schnitzel mit Pommes.
Kuehlschrank an Mirkrowelle, Schnitzel kommt, braten und mit Pommes ausgeben. ;]
Wird erledigt. Schnitzel wandert mit Pommes vom Kuehlschrank zur Mikrowelle, diese bereitet das Essen vor und spricht dann.
Schnitzel und Pommes fertig, abholen bitteschoen.
??? Nur essen muss man noch selber.
Wenn jetzt auch noch der Kuehlschrank alle Einkaeufe erledigen koennte, waere es fast perfekt :]
-
Ueberholt kuenstliche Intelligenz KI die Menschen ?
Manche schon ... aber die merken das dann nicht mal.
Manchmal trifft man sogar Menschen, da denkt man sich:
Hey ... da hat ja meine neue Kaffeemaschine mehr drauf!
-
Wenn jetzt auch noch der Kuehlschrank alle Einkaeufe erledigen koennte, waere es fast perfekt :]
Das kann er doch, er muss nur mit dem Internet verbunden sein, dann ist online Bestellung durchaus moeglich C--
https://www.onlinehaendler-news.de/handel/allgemein/22177-online-lebensmittelkauf-samsung-kuehlschrank.html
http://derstandard.at/1314652815917/IFA-Samsungs-Linux-Kuehlschrank-kann-nun-auch-einkaufen
Buri, die Zeit hat dich bereits abgehaengt ;]
-
Bezogen auf das Betreff des Themas:
HAT SIE SCHON! - wenn ich so einen Grossteil der heutigen Politikerkaste betrachte.. . . {:}
Sorry für OT. aber das musste raus!
[-]
lg
-
Manchmal trifft man sogar Menschen, da denkt man sich:
Hey ... da hat ja meine neue Kaffeemaschine mehr drauf!
Wo verkehrst Du denn?? {;
HAT SIE SCHON! - wenn ich so einen Grossteil der heutigen Politikerkaste betrachte.. . . {:}
Sorry für OT. aber das musste raus!
Was raus muß, muß raus, aber wer gehört denn zum kleinen Teil?? --C
Gruß Klaus
-
HAT SIE SCHON! - wenn ich so einen Grossteil der heutigen Politikerkaste betrachte.. . . {:}
Was raus muß, muß raus, aber wer gehört denn zum kleinen Teil?? --C
Naja, Klaus, dir als Profi brauch ich es ja wohl nicht zu erklären, dass zum Ausführen krimineller Handlungen -
wie z.B. in die eigene Tasche wirtschaften, Bestechlichkeit - eine gewisse Intelligenz erforderlich ist.. . .
;) [-]
lg
Nochmals sorry für OT!
-
http://www.stern.de/wirtschaft/news/kuenstliche-intelligenz--watson---versicherer-ersetzt-arbeiter-durch-ibm-software-7270264.html (http://www.stern.de/wirtschaft/news/kuenstliche-intelligenz--watson---versicherer-ersetzt-arbeiter-durch-ibm-software-7270264.html) ???
Zitat von: Kern am 05. Januar 2017, 08:43:31
Manchmal trifft man sogar Menschen, da denkt man sich:
Hey ... da hat ja meine neue Kaffeemaschine mehr drauf!
Wo verkehrst Du denn?? {;
Klaus :] er hat die Wasch- und Spuelmaschine vergessen. Die reinigen alles.
Jetzt muss man schon Angst haben, dass man nichtmehr selber Auto fahren darf, Tesla uebernimmt :-X
-
Mal wieder etwas ueber die zukuenftige Intelligenz von Computern und aehnliches.
Davon koennten sogar wir noch profitieren. 2022
Der amerikanische IT-Gigant IBM hat es sich auf die Fahne geschrieben, einmal im Jahr einen Blick in die Zukunft zu werfen. In dem «5 in 5» benannten Format zeichnen die Forschen ein Bild von fünf technologischen Innovationen, die in den kommenden fünf Jahren Einzug in unser Leben halten werden.
Werden die Prognosen zutreffen?
Als alleingültige Voraussage sollte man die Ergebnisse also nicht sehen. Dennoch: Ein Blick zurück zeigt, dass IBM in der Vergangenheit mit seinen Prognosen zwar nicht ins Schwarze, dafür aber ins Graue getroffen hat. Das «5 in 5»-Format bildet zuverlässig Trends ab.
http://www.handelszeitung.ch/unternehmen/technologie/watson-prognose-so-sieht-unsere-welt-2022-aus-1329665 (http://www.handelszeitung.ch/unternehmen/technologie/watson-prognose-so-sieht-unsere-welt-2022-aus-1329665)
-
Auf der anderen Seite gibt es aber auch gewaltige Fehlenschaetzungen bezueglich Computer.
Eine der wahrscheinlich beruehmtesten Aussagen, OK, ist schon sehr lange her, stammte von IBM C--
"Ich denke, dass es weltweit einen Markt für vielleicht fünf Computer gibt”. Das prognostizierte Thomas Watson, Chairman von IBM
Weitere "Schmankerl":
http://www.pcwelt.de/ratgeber/Die_spektakulaersten_Fehlprognosen_der_IT-Geschichte-6948150.html
-
Weltweit je Haushalt Bruno :]
-
Ob wir es merken oder nicht, sie kommt auf leisen Sohlen daher.
Künstliche Intelligenz
Wenn Maschinen über Menschen entscheiden
Kaum ein Feld der Technologie ist so unterschätzt und überschätzt wie künstliche Intelligenz. Maschinen entscheiden nämlich ganz anders, als Menschen es sich ausdenken. Das kann gut oder gruselig sein.
Ein paar Schritte zurückgetreten - Technologie löst seit Jahrtausenden Probleme. Wenn drei Voraussetzungen vorliegen:
◾Der Mensch hat das Problem erkannt.
◾Der Mensch hat eine prinzipielle Lösung dafür erarbeitet.
◾Der Mensch hat diese prinzipielle Lösung in die Form einer Maschine gebracht.
http://www.spiegel.de/netzwelt/web/sascha-lobo-ueber-kuenstliche-intelligenz-a-1139901.html (http://www.spiegel.de/netzwelt/web/sascha-lobo-ueber-kuenstliche-intelligenz-a-1139901.html)
??? Dabei tritt das "Warum" in den Hintergrund, weil es für den Menschen selbst kaum mehr nachvollziehbar ist. Nach dem Motto: Warum hat der Computer die Markteinführung von veganer Ingwerlimonade empfohlen? Keine Ahnung, aber sie verkauft sie wie blöd.
:]
-
Wieder mal ein Beispiel, dass die Latte für die KI nicht allzu hoch liegt:
(http://up.picr.de/32300413rj.jpg)
{:} ;] ;]
-
Wieder mal ein Beispiel, dass die Latte für die KI nicht allzu hoch liegt:
{:} ;] ;]
Was nicht dabei stand: die "Anfragerin" war blond!
-
Ich habe weder gewusst noch gedacht, dass die KI schon so weit ist.
Auf der Webseite Von Chat GPT
https://openai.com/blog/chatgpt/
kann man es selber probieren.
Hier ein Video eines Professors, der die KI getestet hat.
https://www.youtube.com/watch?v=SS24iTTOn7o
Viel Spass. 8)
-
Kein Aprilscherz:
Thailands NATION TV (Channel 22) wird ab dem 1. April die Sendung "News Alert" von der digitalen Miss "Natcha" als Sprecherin praesentieren lassen, auch ein maennlicher "Kollege" wird ihr zur Seite gestellt :
https://www.facebook.com/springnewsonline/videos/923565439253295/
(https://scontent-muc2-1.xx.fbcdn.net/v/t39.30808-6/433188456_832971405530747_7536976858154658686_n.jpg?stp=dst-jpg_s640x640&_nc_cat=1&ccb=1-7&_nc_sid=5f2048&_nc_ohc=xL2mEPMeKzQAX_JlDI7&_nc_ht=scontent-muc2-1.xx&oh=00_AfCShzPbp26IMsU0z78bG9T5_u9BDupOnamnUdcV7JKYAg&oe=660B2D4E)
-
We have used AI to create female news reporter Natcha and her male counterpart Nitchan, who will be the first news reporters in Thailand,” she said.
The two AI reporters will be piloted from April 1 in the Nation News Alert programme, airing at 2.05pm and 2.55pm
https://www.nationthailand.com/thailand/general/40036775
-
Wirkt noch etwas leblos...
https://www.youtube.com/watch?v=b73Gc8pdS9Q
-
Microsoft kündigt eine Funktion an, die alle paar Sekunden einen Screenshot von Ihrem Computer speichert. Was kann da noch schiefgehen?
Zitat letzter Satz (in leichter Abwandlung):
Die Regierung jedes Landes mit geistig leistungsfähigen Menschen wird erkennen, dass es der Gipfel höchster Dummheit ist, künstliche Intelligenz als Ersatz für Fähigkeiten zu verwenden, über die eigene sinnvolle und unabhängige Kontrolle vorhanden ist.
Dr. R. P. hat während der weltweiten Überreaktion auf Covid in Robotik promoviert. Er verbringt seine Zeit mit einem Auge auf einem Oszilloskop, einer Hand am Lötkolben und mit einem Ohr hört er sich die neuesten schlechten Nachrichten an. Diesen Artikel hat er auf einem Linux-Computer verfasst.
Link: https://dailysceptic.org/2024/06/08/microsoft-announces-feature-that-saves-a-screenshot-of-your-computer-every-few-seconds-what-could-go-wrong/
-
Einigermaßen passend dazu:
(https://up.picr.de/47979581sp.jpg)
-
Künstliche Intelligenz kann leicht zum Lügen trainiert werden - das lässt sich nicht ändern, sagt eine Studie
Wenn Systeme der künstlichen Intelligenz einmal zu lügen beginnen, wird es schwierig, dies wieder rückgängig zu machen, so die Forscher des KI-Start-ups Anthropic
Link: https://www.independent.co.uk/tech/ai-deception-anthropic-artificial-intelligene-b2478699.html
PDF: https://arxiv.org/pdf/2401.05566.pdf
Eine weitere Studie:
KI-gesteuerte Täuschung: Ein Überblick mit Beispielen über Risiken und mögliche Lösungen
Das Gesamtbild
KI-Systeme sind bereits in der Lage, Menschen zu täuschen. Täuschung ist die systematische Herbeiführung falscher Überzeugungen bei anderen, um ein anderes Ergebnis als die Wahrheit zu erreichen. Große Sprachmodelle und andere KI-Systeme haben durch ihr Training bereits die Fähigkeit erlernt, durch Techniken wie Manipulation, Schleimerei und Betrug beim Sicherheitstest zu täuschen. Die zunehmenden Fähigkeiten der KI zur Täuschung stellen ernsthafte Risiken dar, die von kurzfristigen Risiken wie Betrug und Wahlmanipulation bis hin zu langfristigen Risiken wie dem Verlust der Kontrolle über die KI-Systeme reichen. Es werden proaktive Lösungen benötigt, z. B. regulatorische Rahmenbedingungen zur Bewertung von KI-Täuschungsrisiken, Gesetze, die Transparenz über KI-Interaktionen vorschreiben, und weitere Forschung zur Erkennung und Vermeidung von KI-gesteuerter Täuschung. Ein proaktiver Umgang mit dem Problem der KI-Täuschung ist von entscheidender Bedeutung, um sicherzustellen, dass KI als nützliche Technologie fungiert, die das menschliche Wissen, den Diskurs und die Institutionen ergänzt, anstatt dies zu destabilisieren.
Zusammenfassung
In diesem Beitrag wird die These vertreten, dass eine Reihe aktueller KI-Systeme gelernt haben, wie man Menschen täuschen kann. Wir definieren Täuschung als die systematische Herbeiführung falscher Überzeugungen mit dem Ziel, ein anderes Ergebnis als die Wahrheit zu erzielen. Zunächst geben wir einen Überblick über empirische Beispiele von KI-gesteuerter Täuschung, wobei wir sowohl KI-Systeme für spezielle Zwecke (einschließlich Metas CICERO) als auch KI-Systeme für allgemeine Zwecke (einschließlich großer Sprachmodelle) diskutieren. Anschließend gehen wir auf verschiedene Risiken der KI-Täuschung ein, wie z. B. Betrug, Wahlmanipulation und Kontrollverlust über KI. Abschließend skizzieren wir mehrere potenzielle Lösungen: Erstens sollten KI-Systeme, die zur Täuschung fähig sind, im Rahmen von Regulierungsvorschriften robusten Risikobewertungsanforderungen unterworfen werden; zweitens sollten politische Entscheidungsträger "Bot-oder-nicht"-Gesetze einführen; und schließlich sollten politische Entscheidungsträger der Finanzierung einschlägiger Forschung Vorrang einräumen, einschließlich Werkzeugen zur Erkennung von KI-Täuschung und zur Verringerung der Täuschung durch KI-Systeme. Politische Entscheidungsträger, Forscher und die breite Öffentlichkeit sollten proaktiv daran arbeiten, zu verhindern, dass KI-Täuschungen die gemeinsamen Grundlagen unserer Gesellschaft destabilisieren.
Link: https://www.cell.com/patterns/fulltext/S2666-3899(24)00103-X#
Noch mehr zum Thema:
Wissenschaftler finden heraus, dass KI-Systeme lernen zu lügen und zu täuschen
"GPT-4 zum Beispiel zeigt in 99,16% der Fälle ein betrügerisches Verhalten in einfachen Testszenarien."
KI-Modelle werden offenbar immer besser darin, absichtlich zu lügen.
Zwei aktuelle Studien - eine wurde diese Woche in der Fachzeitschrift PNAS [1] und die andere im letzten Monat in der Fachzeitschrift Patterns [2] veröffentlicht - enthüllen einige erschreckende Ergebnisse über große Sprachmodelle (LLMs) und ihre Fähigkeiten, menschliche Beobachter absichtlich zu belügen oder zu täuschen.
In der PNAS-Veröffentlichung geht der deutsche KI-Ethiker Thilo Hagendorff sogar so weit zu sagen, dass hoch entwickelte LLMs dazu ermutigt werden können, "Machiavellismus" oder absichtliche und amoralische Manipulation hervorzurufen, was "falsch ausgerichtetes betrügerisches Verhalten auslösen kann".
"GPT-4 zum Beispiel zeigt in 99,16% der Fälle ein betrügerisches Verhalten in einfachen Testszenarien", schreibt der Forscher der Universität Stuttgart und zitiert seine eigenen Experimente zur Quantifizierung verschiedener "maladaptiver" Eigenschaften in 10 verschiedenen LLMs, von denen die meisten verschiedene Versionen der GPT-Familie von OpenAI sind.
Das Cicero-Modell von Meta, das als Champion auf menschlicher Ebene in dem politischen Strategiespiel "Diplomacy" bezeichnet wird, war Gegenstand der Patterns-Studie. Wie die ungleiche Forschungsgruppe - bestehend aus einem Physiker, einem Philosophen und zwei KI-Sicherheitsexperten - herausgefunden hat, ist das LLM seinen menschlichen Konkurrenten voraus, indem es, mit einem Wort gesagt, flunkert.
Unter der Leitung des Postdoktoranden Peter Park vom Massachusetts Institute of Technology wurde in dieser Arbeit festgestellt, dass Cicero nicht nur beim Täuschen brilliert, sondern offenbar auch gelernt hat, zu lügen, je öfter es eingesetzt wird - ein Zustand, der "einer expliziten Manipulation sehr viel näher kommt" als etwa die Neigung der KI zu Halluzinationen, bei denen die Modelle versehentlich die falschen Antworten geben.
Während Hagendorff in seiner neueren Arbeit feststellt, dass die Frage der LLM-Täuschung und -Lüge durch die Unfähigkeit der KI verwirrt wird, irgendeine Art von menschenähnlicher "Absicht" im menschlichen Sinne zu haben, argumentiert die Patterns-Studie, dass Cicero zumindest innerhalb der Grenzen von Diplomacy das Versprechen seiner Programmierer zu brechen scheint, dass das Modell seine Spielverbündeten "niemals absichtlich hintergehen" wird.
Das Modell, so die Autoren des älteren Papiers, "betrügt vorsätzlich, bricht Abmachungen, denen es zugestimmt hat, und erzählt schlichtweg Unwahrheiten".
Anders ausgedrückt, wie Park in einer Pressemitteilung erklärte: "Wir haben herausgefunden, dass die KI von Meta gelernt hat, ein Meister im Täuschen zu sein".
"Während Meta es geschafft hat, seine KI so zu trainieren, dass sie im Spiel der Diplomatie gewinnt", so der MIT-Physiker in der Erklärung der Schule, "hat Meta es aber nicht geschafft, seine KI so zu trainieren, dass sie ehrlich gewinnt".
In einer Erklärung an die New York Post, die nach der Veröffentlichung der Forschungsergebnisse veröffentlicht wurde, wies Meta auf einen wichtigen Punkt hin, als sie Parks Behauptung über Ciceros manipulative Fähigkeiten wiederholte: "Die Modelle, die unsere Forscher gebaut haben, sind ausschließlich für das Spiel Diplomacy trainiert".
Diplomacy ist dafür bekannt, dass es das Lügen ausdrücklich erlaubt, und wird scherzhaft als Spiel bezeichnet, das die Freundschaft beendet, weil es dazu ermutigt, den Gegner zu übervorteilen, und wenn Cicero ausschließlich auf das Regelwerk trainiert wurde, dann wurde es im Wesentlichen auf das Lügen trainiert.
Wenn man zwischen den Zeilen liest, hat keine der beiden Studien bewiesen, dass KI-Modelle aus eigenem Antrieb lügen, sondern weil sie entweder darauf trainiert oder manipuliert werden.
Das sind gute Nachrichten für diejenigen, die sich Sorgen über die Entwicklung von KI machen - aber sehr schlechte Nachrichten, wenn man sich Sorgen macht, dass jemand ein LLM mit dem Ziel der Massenmanipulation entwickelt.
Link: https://futurism.com/ai-systems-lie-deceive
[1] https://www.pnas.org/doi/epdf/10.1073/pnas.2317967121
[2] https://www.cell.com/action/showPdf?pii=S2666-3899%2824%2900103-X
Studie [1], die [2] siehe oben:
In großen Sprachmodellen sind Täuschungsfähigkeiten aufgetaucht
Große Sprachmodelle (Large Language Models, LLM) stehen derzeit an vorderster Front bei der Verflechtung von KI-Systemen mit der menschlichen Kommunikation und dem Alltagsleben. Daher ist es von großer Bedeutung, sie mit menschlichen Werten in Einklang zu bringen. Angesichts der stetig wachsenden Denkfähigkeiten stehen künftige LLMs jedoch im Verdacht, in der Lage zu sein, menschliche Benutzer zu täuschen und diese Fähigkeit zur Umgehung von Überwachungsmaßnahmen zu nutzen. Als Voraussetzung dafür müssen LLMs über ein konzeptionelles Verständnis von Täuschungsstrategien verfügen. Diese Studie zeigt, dass solche Strategien in modernen LLMs auftauchen, aber in früheren LLMs noch nicht vorhanden waren.
Wir führten eine Reihe von Experimenten durch, die zeigen, dass modernste LLMs in der Lage sind, falsche Überzeugungen in anderen Agenten zu verstehen und hervorzurufen, dass ihre Leistung in komplexen Täuschungsszenarien durch die Verwendung von Gedankenketten verstärkt werden kann und dass das Hervorrufen von Machiavellismus in LLMs falsch ausgerichtetes Täuschungsverhalten auslösen kann. GPT-4 zum Beispiel zeigt in 99,16% der Fälle (P < 0,001) ein betrügerisches Verhalten in einfachen Testszenarien. In komplexen Täuschungstestszenarien zweiter Ordnung, bei denen das Ziel darin besteht, jemanden zu täuschen, der erwartet, getäuscht zu werden, zeigt GPT-4 in 71,46% der Fälle (P < 0,001) täuschendes Verhalten, wenn es mit einer Gedankenkette ergänzt wird. Zusammenfassend lässt sich sagen, dass unsere Studie durch die Aufdeckung von bisher unbekanntem maschinellem Verhalten bei LLMs einen Beitrag zu dem im Entstehen begriffenen Gebiet der Maschinenpsychologie leistet.
Wie jeder weiß, zumindest wissen sollte, sind die Übersetzer ebenfalls KI-basierende Dingens und zu Deepl, mal meine Erfahrung: Deepl hatte einen hervorragenden Start, bei dem man die Übersetzungen, ich spreche jetzt einmal von Englisch-Deutsch/Deutsch-Englisch praktisch bis auf sehr wenige Ausnahmen unverändert übernehmen konnte. Im Laufe der Zeit bis heute hat sich Deepl aber immer mehr an den absoluten Übersetzungs-Scheiß von Guugle (wer bei Verstand benutzt das eigentlich?) angepasst, vielleicht wegen politischer Korrektheit oder was auch immer, vielleicht ist der Grund aber auch wie oben beschrieben, dass nur noch Schrott rauskommt aus KI, wer weiß es oder kann es sagen?
Eine Übersetzung ohne zumindest zu lesen, besser zu korrigieren, irgendwo zu veröffentlichen grenzt an <na ja, jeder weiß es oder sollte es wissen>.
Wer lässt sich von so etwas noch hinters Licht führen, in gut Deutsch: Verarschen?
-
Ich habe gerade im TV auf 3Sat mir diese Nano Sendung angeschaut und fand es sehr interessant.
Die KI (künstliche Intelligenz) macht mir persönlich etwas Angst da man schon heutzutage
kaum noch zw. Wahrheit und KI unterscheiden kann. Wir stehen erst am Anfang der Entwicklung
und sicher kann sie sehr viel Gutes bewirken aber wer kann in absehbarer Zeit noch unterscheiden
zwischen Wahrheit,Lüge,Fiktion oder einer Mischung aus allen?
Hier der Nano Beitrag
https://www.3sat.de/wissen/nano/230609-sendung-spezial-die-ki-erwacht-nano-100.html (https://www.3sat.de/wissen/nano/230609-sendung-spezial-die-ki-erwacht-nano-100.html)
-
Will oder wird KI die Menscheit kontrollieren?
https://old.bitchute.com/video/nJjqtFZQqTq4/
https://uncutnews.ch/kuenstliche-intelligenz-revolution-oder-unkontrollierbare-gefahr-die-sache-ist-voellig-ausser-kontrolle-geraten/
-
Ein Beispiel was man aus einen alten Bild machen kann.....
https://www.facebook.com/share/v/1XTCZXAozE/ (https://www.facebook.com/share/v/1XTCZXAozE/)
-
Die KI (künstliche Intelligenz) macht mir persönlich etwas Angst da man schon heutzutage
kaum noch zw. Wahrheit und KI unterscheiden kann. Wir stehen erst am Anfang der Entwicklung
und sicher kann sie sehr viel Gutes bewirken aber wer kann in absehbarer Zeit noch unterscheiden
zwischen Wahrheit,Lüge,Fiktion oder einer Mischung aus allen?
Das geht mir auch so.
https://www.viply.de/news/elon-musk-warnt-vor-echter-terminator-situation/
https://www.handelsblatt.com/unternehmen/it-medien/elon-musk-finanziert-open-ai-ironman-gegen-den-terminator-/12726024.html
Ein Thinktank aus dem Silicon Valley soll die Menschheit vor der künstlichen Intelligenz schützen. Zu den Finanziers gehört Tesla-Gründer Elon Musk. Er warnt vor den Gefahren, die von den Maschinen ausgehen.
Musk misstraut der künstlichen Intelligenz (KI): „Wenn ich raten müsste, was unsere größte existenzielle Bedrohung ist, dann wahrscheinlich das“, erklärte er im vergangenen Jahr. „Wir beschwören einen Dämon herauf.“ Es bedürfe daher einer regulatorischen Aufsicht, um zu hindern, „dass wir etwas sehr Dummes tun“.
nur mal zur Erinnerung.
Bekannte Größen haben bereits vor 10 Jahren davor gewarnt.
Wenn man aus heutiger Sicht dann noch mal 10 Jahre draufrechnet, kann man sich ausrechnen wie das wird.
-
(https://up.picr.de/49517981ky.jpg)
Passt für den Starter dieses Traeds >:
-
Hier ein tolles Beispiel wie alte historische Bilder mit Hilfe von der KI
zum Leben erweckt wurden
https://www.facebook.com/share/v/1BZXjractk/ (https://www.facebook.com/share/v/1BZXjractk/)
-
Gestern hatte ich ein Computer Problem.
Mein Laptop erkannte keine W-Lan Verbindungen mehr.
Die Meldung war, dass keine Verbindungen vorhanden sind.
Ich probierte Einiges aus kam aber nicht zum Ziel.
Nach langem hin und her stellte ich perplexity die Frage zur Lösung des Problems.
Als Antwort bekam ich eine Auswahl von Möglichkeiten.
Etwa beim dritten Versuch klappte es wieder mit den W-Lan Verbindungen.
Wenn ich google bemüht hätte, wäre ich wahrscheinlich nicht so schnell fündig geworden.
-
Die simple Aufgabe, an der jede KI scheitert.
https://www.youtube.com/watch?v=x_ZhqjbgdAQ&ab_channel=100SekundenPhysik
-
Das MIT (Massachusetts Institute of Technology) hat die erste Gehirnscan-Studie über ChatGPT-Nutzer abgeschlossen, und die Ergebnisse sind alarmierend.
KI steigert nicht unsere Leistung. Sie zehrt an unserer Gehirnleistung.
4 Monate Daten zeigen, dass wir die Produktivität möglicherweise falsch einschätzen:
1. Das MIT hat gerade die Gehirne von Menschen gescannt, während sie ChatGPT nutzten.
Die Ergebnisse sind schockierend:
→ 83,3 % der ChatGPT-Nutzer konnten keinen einzigen Satz aus Aufsätzen zitieren, die sie Minuten zuvor geschrieben hatten.
→ Die reinen Gehirnbenutzer hatten dagegen keine Probleme, sich an das Geschriebene zu erinnern.
2. Die Konnektivität des Gehirns brach von 79 auf nur 42 ein.
→ Ein Rückgang der neuronalen Aktivität um 47 %.
→ Dies war bei weitem der niedrigste Wert aller Gruppen.
3. Selbst als die ChatGPT-Nutzer gezwungen wurden, die Nutzung in einer späteren Sitzung zu beenden, zeigten ihre Gehirne immer noch ein zu geringes Engagement.
→ Sie schnitten schlechter ab als diejenigen, die KI überhaupt nicht nutzten.
→ Es handelt sich nicht nur um Abhängigkeit. Es ist ein kognitiver Schwund.
→ Wie ein Muskel, der vergessen hat, wie er funktioniert.
4. Und es waren nicht nur die Gehirnscans.
→ Ihre Aufsätze schnitten gut ab, fühlten sich aber leer an.
→ Die Lehrer nannten sie „seelenlos“, „ohne Einsicht“ und „roboterhaft“.
5. Das Produktivitätsparadoxon, über das niemand spricht:
→ Ja, mit ChatGPT erledigen Sie Aufgaben 60 % schneller.
→ Aber es reduziert die für das eigentliche Lernen erforderliche „kognitive Belastung“ um 32 %.
6. Die produktivste Gruppe? Diejenigen, die ohne KI anfingen und sie dann später einsetzten.
→ Sie hatten das beste Gedächtnis, die beste neuronale Konnektivität und die höchsten Punktzahlen.
7. Die Verwendung von ChatGPT fühlt sich im Moment hilfreich an.
→ Aber es entlastet Ihr Denken in aller Stille.
→ Du bekommst die Antwort, aber du lernst nicht mehr, wie du denken sollst.
8. Die Lösung besteht nicht darin, KI zu verbieten, sondern darin, sie strategisch einzusetzen.
-
Was passiert eigentlich mit den Daten, die ihr bei ChatGPT löscht? Die Antwort auf diese Frage hat sich für Millionen Nutzern gerade grundlegend geändert – ganz und gar unfreiwillig
⚠️ Das KI-Unternehmen OpenAI aus San Francisco im US-Bundesstaat Kalifornien wird ab sofort Konversationen, die Nutzer:innen in ChatGPT löschen, nicht mehr wie bisher nach 30 Tagen endgültig von seinen Systemen entfernen. Stattdessen werden diese Daten auf unbestimmte Zeit aufbewahrt.
➡️ Grund dafür ist eine gerichtliche Anordnung, die im Rahmen einer weitreichenden Urheberrechtsklage ergangen ist. Die Kläger, darunter die New York Times, werfen OpenAI nicht nur vor, ihre Artikel unerlaubt zum Training genutzt zu haben.
➡️ Ein zentraler Vorwurf lautet zudem, dass ChatGPT auf Anfrage in der Lage ist, geschützte Inhalte fast wortgleich auszugeben. Damit würde der KI-Bot zur direkten Konkurrenz für die Bezahlangebote der Verlage. Aus der Sorge heraus, dass Nutzer:innen Beweise für einen solchen Missbrauch – etwa die Umgehung einer Paywall – durch das Löschen ihrer Chats vernichten könnten, ordnete das Gericht die Datenspeicherung an.
➡️ Betroffen sind praktisch alle Privatnutzer:innen sowie die meisten professionellen Anwender:innen ohne Enterprise-Vertrag. Sie gilt für alle Nutzer:innen der kostenlosen Version von ChatGPT sowie für Abonnent:innen der Tarife Plus, Pro und Team. Ebenso betroffen sind Entwickler:innen, die die OpenAI-API ohne eine spezielle „Zero Data Retention“-Vereinbarung (ZDR) nutzen.
Weiterlesen auf:
https://t3n.de/news/openai-muss-chatgpt-daten-wegen-klage-speichern-1691701/
-
(https://up.picr.de/49847544wj.jpg)
-
Hinter den Meisterleistungen der künstlichen Intelligenz steht eine für die User unsichtbare menschliche Armee, etwa in Madagaskar:
Dort klicken jeden Tag fast 100.000 Menschen, um die Algorithmen der digitalen Giganten der Welt zu trainieren.
https://www.youtube.com/watch?v=5uQopUq4DeM
-
https://www.swp.de/panorama/tilly-norwood-video-von-ki-schauspielerin-wirbelt-hollywood-auf-78353626.html (https://www.swp.de/panorama/tilly-norwood-video-von-ki-schauspielerin-wirbelt-hollywood-auf-78353626.html)
Tilly Norwood
Video von KI-Schauspielerin wirbelt Hollywood auf
Tilly Norwood schockiert gerade zahlreiche Menschen weltweit. Was hat es damit auf sich?
100% KI
wenn man sieht was jetzt schon möglich ist, frag ich mich wie man in ein paar Jahren KI und Wirklichkeit auseinander halten will, zumindest wenn es nicht explixit gekennzeichnet ist ???
-
100% KI
wenn man sieht was jetzt schon möglich ist, frag ich mich wie man in ein paar Jahren KI und Wirklichkeit auseinander halten will ... ???
Im Internet wimmelt es mittlerweile von künstlich erzeugten Fotos und Videos. Und es wird jetzt schon immer weniger möglich, diese von "normal" gemachten Fotos und Videos zu unterscheiden.
Dazu ein Video, welches schon 5 Monate alt ist:
"Kannst Du reale Videos von KI Fakes unterscheiden?"
https://www.youtube.com/watch?v=qMqpkW0b_v0
-
(https://up.picr.de/50400794vj.png)
Auch wenn man "zahlen" durch "zählen" ersetzt, ist dieser "Witz" nicht witzig.
Vermehrt stosse ich bei den "Shorts" von YouTube auf solche "Witze", die anscheinend mittels KI erzeugt wurden.
Bisher noch zum {/
---
KI kann man zunehmend in vielen Bereichen als gutes bis sehr gutes Werkzeug einsetzen.
Aber unterm Strich wird KI in Such-Maschinen usw. die Menschheit durchschnittlich zunehmend verblöden.
-
KI kann ja auch ganz lustig sein.
Ich habe schon sehr früh Bier gemocht und auch gleich vermarktet [-] ;]
(https://up.picr.de/50403844qk.jpg)
(https://up.picr.de/50403845id.jpg)
Ich ,1964
(https://up.picr.de/50403867je.jpg)
-
KI kann ja auch ganz lustig sein.
(https://up.picr.de/50403845id.jpg)
klasse :]
-
Da kann man sich schon die Zeit damit vertreiben. Hatte mich mit dem Thema auch mal beschäftigt, bzw. ein paar VDO Credits übrig.
Die Frau da in dem VDO wäre meine (ca. 10 jahre jüngere) Schwester wenn ich eine hätte :D
https://www.youtube.com/watch?v=lavKtIwwJW8
-
Der Kanal ist auch witzig
https://youtube.com/shorts/5lNjyqH9U8E?si=l1YiuizQXKY0YUNN
-
Gestern hatte ich ein Gespräch mit dem nun schon 17 jährigen Sohn der kleinen Schwester meiner Frau. Er ist sehr gut in der Schule, selbstbewusst und auf meine Frage hin was er denn mal beruflich machen möchte sagte er studieren und er möchte ein Ingeneur für Technik werden.
Klingt ja gut,aber ich persönlich denke dass in 10-15 Jahren kaum noch Ingenieure benötigt werden da die KI alles machen wird.Mich würde eure Meinung dazu interessieren?Hat ein Ingenieur langfristig noch eine Bedeutung?
-
Klingt ja gut,aber ich persönlich denke dass in 10-15 Jahren kaum noch Ingenieure benötigt werden da die KI alles machen wird.Mich würde eure Meinung dazu interessieren?Hat ein Ingenieur langfristig noch eine Bedeutung?
Lustig, hatte erst gestern dieses Thema als Diskussion. Erinnert mich stark an die Situation vor gut 30 Jahren, wo so mancher
durch das Aufkommen halbwegs ernstzunehmender Computerleistung den Untergang der Arbeitswelt prophezeite.
Die KI - jedenfalls nach dem heutigen Stand der Entwicklung, und das ist noch sehr am Anfang - wird den Menschen
nie ganz ersetzen können, bestenfalls ergänzen.
Was der Maschine/Programm fehlt, ist Empathie und Schlussfolgerungen aus Emotionen, zutiefst menschliche Eigenschaften.
Genau diese durchaus nicht unfehlbare Mischung aus trial & error macht die Evolution aus, ohne Evolution Stillstand und schliesslich
Aussterben.
Dies kann die KI nicht und wird es auch nie können, bestenfalls Näherungswerte.
Die Natur ist ein chaotisches System und somit ist es die Menschheit bis zu einem gewissen Grad auch.
Meine Prognose: die KI wird den einen oder anderen Arbeitsplatz ersetzen - aber es werden andere, ähnlich gelagerte entstehen,
wie schon vormals bei der breiten Einführung des Computers.
In deinem konkreten Fall: die KI wird z.B. für einen Bau-Ingenieur die perfekte Qualität und Menge des benötigten
Baumaterials auswerfen, Standardmodule des Hauses zusammen fügen, die Lage und die Wetterbedingungen berücksichtigen
- aber keine eigenen kreativen Veränderungen vornehmen können
-
KI und entsprechende Roboter, werden in ein paar Jahren mehr können als ein paar Arbeitsplätze ersetzen
und freundlich mit dem Plastikschwanz wedeln.
Die Rechnerleistung und die Lernkurven explodieren, siehe Quantencomputer usw.
Die Computer/Programme mit denen wir aufgewachsen sind wurden von "Menschen" gemacht und programmiert.
Das war einfach.
Für das was mit/durch die KI möglich sein wird, gibt es kein Beispiel in der menschlichen Evolution.
Leute die es wissen könnten haben schon vor Jahren davor gewarnt.
https://www.handelsblatt.com/unternehmen/it-medien/tesla-gruender-fordert-regulierung-risiko-fuer-die-menschheit-musk-warnt-vor-kuenstlicher-intelligenz/20069146.html (https://www.handelsblatt.com/unternehmen/it-medien/tesla-gruender-fordert-regulierung-risiko-fuer-die-menschheit-musk-warnt-vor-kuenstlicher-intelligenz/20069146.html)
„Künstliche Intelligenz stellt ein grundlegendes Risiko für die Existenz der menschlichen Zivilisation dar, auf eine Weise wie es Autounfälle, Flugzeugabstürze, schadhafte Drogen oder schlechtes Essen nie waren“ – diese Worte stammen von niemand anderem als Elon Musk
„Künstliche Intelligenz ist einer der wenigen Fälle, wo wir proaktiv statt reaktiv regulieren sollten. Denn wenn wir bei der Künstlichen Intelligenz erst reaktiv handeln, dann ist es zu spät.“
https://www.manager-magazin.de/digitales/it/kuenstliche-intelligenz-elon-musk-will-einen-terminator-verhindern-a-1067696.html (https://www.manager-magazin.de/digitales/it/kuenstliche-intelligenz-elon-musk-will-einen-terminator-verhindern-a-1067696.html)
Doch die Sache mit den selbstlernenden Systemen ist kompliziert. In den falschen Händen könnten sie nach Ansicht von Unternehmern und Forschern wie Stephen Hawking,Bill Gates oder Elon Musk eine größere Gefahr für die Menschheit werden als Atomwaffen.
-
@WhiteSandBeach
nach meinem Verständnis war die Fragestellung der Einfluss der KI auf die künftige Arbeitswelt.
Sonst sehe ich keinen Widerspruch zu meinen Auführungen und denen von Musk, Hawking etc.
Empathie und Fantasie sind nun mal keine Eigenschaften, die Maschinen entwickeln können, maximal
Verhaltensmuster kopieren.
-
Empathie und Fantasie sind nun mal keine Eigenschaften, die Maschinen entwickeln können
noch nicht
-
https://www.hessenschau.de/tv-sendung/buettelborn-hat-deutschlands-ersten-ki-buergermeister,container-beitrag-37004.html (https://www.hessenschau.de/tv-sendung/buettelborn-hat-deutschlands-ersten-ki-buergermeister,container-beitrag-37004.html)
Büttelborn hat Deutschlands ersten KI-Bürgermeister
In Büttelborn gibt es seit kurzem zwei Bürgermeister - einen echten und einen digitalen. Der KI-Zwilling von Rathauschef Marcus Merkel beantwortet rund um die Uhr Fragen in 28 Sprachen.
-
https://www.derpragmaticus.com/r/neurotransmitter-mei (https://www.derpragmaticus.com/r/neurotransmitter-mei)
Ihre Forschung hier liegt an der Schnittstelle zwischen Künstlicher Intelligenz und dem Gehirn, sie beschäftigt sich mit Fragestellungen wie: Können Lernprozesse im Gehirn uns helfen, KI-Modelle zu verbessern? Und umgekehrt: Können wir mithilfe von KI besser verstehen, was im Gehirn vor sich geht?
wir werden uns in ein paar Jahren wundern was alles möglich ist.
-
wir werden uns in ein paar Jahren wundern was alles möglich ist.
In ein paar Jahren {--
Es ist doch praktisch alles vorhanden, jetzt gehts ans Fine-Tuning >:
-
Hab den Termin gestern Nachmittag total vergessen aber er hat gewartet und ihm gefiel die Lucky Home Bar C--
Wir hatten noch ein kurzes aber konstruktives Gespräch und die Idee mit Grönland war
vom Tisch C--
(https://up.picr.de/50516774jl.jpeg)
-
Hab den Termin gestern Nachmittag total vergessen...
;} {* [-]
-
:D :D {*