ThailandTIP Forum

Bitte loggen sie sich ein oder registrieren sie sich.

Einloggen mit Benutzername, Passwort und Sitzungslänge
Erweiterte Suche  

Neuigkeiten:

Hier kommen sie zu den aktuellen Nachrichten auf ThailandTIP.info

Autor Thema: KI - künstliche Intelligenz  (Gelesen 13770 mal)

0 Mitglieder und 1 Gast betrachten dieses Thema.

Suksabai

  • Thailand Guru
  • *******
  • Online Online
  • Beiträge: 13.627
  • Beide Seiten der Medaille betrachten
Re: Ueberholt kuenstliche Intelligenz KI die Menschen ?
« Antwort #30 am: 04. April 2018, 11:00:53 »


Wieder mal ein Beispiel, dass die Latte für die KI nicht allzu hoch liegt:



 {:}  ;] ;]
Gespeichert
Ich kann, wenn ich will. Und wer will, dass ich muss, der kann mich mal !

Helli

  • Thailand Guru
  • *******
  • Offline Offline
  • Beiträge: 10.749
Re: Ueberholt kuenstliche Intelligenz KI die Menschen ?
« Antwort #31 am: 04. April 2018, 16:03:38 »

Wieder mal ein Beispiel, dass die Latte für die KI nicht allzu hoch liegt:
 {:}  ;] ;]
Was nicht dabei stand: die "Anfragerin" war blond!
Gespeichert
Ein Moselaner regt sich nicht über Dinge auf, die er nicht ändern kann.

Raburi

  • Thailand Guru
  • *******
  • Offline Offline
  • Beiträge: 4.003
Re: Ueberholt kuenstliche Intelligenz KI die Menschen ?
« Antwort #32 am: 21. Januar 2023, 17:45:27 »


Ich habe weder gewusst noch gedacht, dass die KI schon so weit ist.
Auf der Webseite Von Chat GPT

https://openai.com/blog/chatgpt/

kann man es selber probieren.

Hier ein Video eines Professors, der die KI getestet hat.



Viel Spass.  8)
Gespeichert
«Die Definition von Wahnsinn ist, immer wieder das Gleiche zu tun und andere Ergebnisse zu erwarten.» Einstein

namtok

  • Thailand Guru
  • *******
  • Offline Offline
  • Beiträge: 30.503
Re: Ueberholt kuenstliche Intelligenz KI die Menschen ?
« Antwort #33 am: 29. März 2024, 04:04:54 »

Kein Aprilscherz:


Thailands NATION TV (Channel 22) wird ab dem 1. April die Sendung "News Alert" von der digitalen Miss "Natcha" als Sprecherin praesentieren lassen, auch ein maennlicher "Kollege" wird ihr zur Seite gestellt :

https://www.facebook.com/springnewsonline/videos/923565439253295/

Gespeichert
██████  Ich sch... auf eure Klimaziele !

namtok

  • Thailand Guru
  • *******
  • Offline Offline
  • Beiträge: 30.503
Re: Ueberholt kuenstliche Intelligenz KI die Menschen ?
« Antwort #34 am: 29. März 2024, 17:09:34 »


We have used AI to create female news reporter Natcha and her male counterpart Nitchan, who will be the first news reporters in Thailand,” she said.

The two AI reporters will be piloted from April 1 in the Nation News Alert programme, airing at 2.05pm and 2.55pm


https://www.nationthailand.com/thailand/general/40036775
Gespeichert
██████  Ich sch... auf eure Klimaziele !

namtok

  • Thailand Guru
  • *******
  • Offline Offline
  • Beiträge: 30.503
Re: Ueberholt kuenstliche Intelligenz KI die Menschen ?
« Antwort #35 am: 01. April 2024, 16:45:42 »

Wirkt noch etwas leblos...

Gespeichert
██████  Ich sch... auf eure Klimaziele !

b.o.bachter

  • ist voll dabei
  • ****
  • Offline Offline
  • Beiträge: 162
Re: Ueberholt kuenstliche Intelligenz KI die Menschen ?
« Antwort #36 am: 11. Juni 2024, 15:30:40 »

Microsoft kündigt eine Funktion an, die alle paar Sekunden einen Screenshot von Ihrem Computer speichert. Was kann da noch schiefgehen?

Zitat letzter Satz (in leichter Abwandlung):
Die Regierung jedes Landes mit geistig leistungsfähigen Menschen wird erkennen, dass es der Gipfel höchster Dummheit ist, künstliche Intelligenz als Ersatz für Fähigkeiten zu verwenden, über die eigene sinnvolle und unabhängige Kontrolle vorhanden ist.

Dr. R. P. hat während der weltweiten Überreaktion auf Covid in Robotik promoviert. Er verbringt seine Zeit mit einem Auge auf einem Oszilloskop, einer Hand am Lötkolben und mit einem Ohr hört er sich die neuesten schlechten Nachrichten an. Diesen Artikel hat er auf einem Linux-Computer verfasst.

Link: https://dailysceptic.org/2024/06/08/microsoft-announces-feature-that-saves-a-screenshot-of-your-computer-every-few-seconds-what-could-go-wrong/
Gespeichert

Kern

  • Globaler Moderator
  • Thailand Guru
  • *****
  • Offline Offline
  • Beiträge: 17.107
Re: Ueberholt kuenstliche Intelligenz KI die Menschen ?
« Antwort #37 am: 11. Juni 2024, 15:39:51 »

Einigermaßen passend dazu:

Gespeichert

b.o.bachter

  • ist voll dabei
  • ****
  • Offline Offline
  • Beiträge: 162
Re: Ueberholt kuenstliche Intelligenz KI die Menschen ?
« Antwort #38 am: 30. Juni 2024, 13:06:39 »

Künstliche Intelligenz kann leicht zum Lügen trainiert werden - das lässt sich nicht ändern, sagt eine Studie

Wenn Systeme der künstlichen Intelligenz einmal zu lügen beginnen, wird es schwierig, dies wieder rückgängig zu machen, so die Forscher des KI-Start-ups Anthropic


Link: https://www.independent.co.uk/tech/ai-deception-anthropic-artificial-intelligene-b2478699.html

PDF: https://arxiv.org/pdf/2401.05566.pdf

Eine weitere Studie:

KI-gesteuerte Täuschung: Ein Überblick mit Beispielen über Risiken und mögliche Lösungen

Das Gesamtbild
KI-Systeme sind bereits in der Lage, Menschen zu täuschen. Täuschung ist die systematische Herbeiführung falscher Überzeugungen bei anderen, um ein anderes Ergebnis als die Wahrheit zu erreichen. Große Sprachmodelle und andere KI-Systeme haben durch ihr Training bereits die Fähigkeit erlernt, durch Techniken wie Manipulation, Schleimerei und Betrug beim Sicherheitstest zu täuschen. Die zunehmenden Fähigkeiten der KI zur Täuschung stellen ernsthafte Risiken dar, die von kurzfristigen Risiken wie Betrug und Wahlmanipulation bis hin zu langfristigen Risiken wie dem Verlust der Kontrolle über die KI-Systeme reichen. Es werden proaktive Lösungen benötigt, z. B. regulatorische Rahmenbedingungen zur Bewertung von KI-Täuschungsrisiken, Gesetze, die Transparenz über KI-Interaktionen vorschreiben, und weitere Forschung zur Erkennung und Vermeidung von KI-gesteuerter Täuschung. Ein proaktiver Umgang mit dem Problem der KI-Täuschung ist von entscheidender Bedeutung, um sicherzustellen, dass KI als nützliche Technologie fungiert, die das menschliche Wissen, den Diskurs und die Institutionen ergänzt, anstatt dies zu destabilisieren.

Zusammenfassung
In diesem Beitrag wird die These vertreten, dass eine Reihe aktueller KI-Systeme gelernt haben, wie man Menschen täuschen kann. Wir definieren Täuschung als die systematische Herbeiführung falscher Überzeugungen mit dem Ziel, ein anderes Ergebnis als die Wahrheit zu erzielen. Zunächst geben wir einen Überblick über empirische Beispiele von KI-gesteuerter Täuschung, wobei wir sowohl KI-Systeme für spezielle Zwecke (einschließlich Metas CICERO) als auch KI-Systeme für allgemeine Zwecke (einschließlich großer Sprachmodelle) diskutieren. Anschließend gehen wir auf verschiedene Risiken der KI-Täuschung ein, wie z. B. Betrug, Wahlmanipulation und Kontrollverlust über KI. Abschließend skizzieren wir mehrere potenzielle Lösungen: Erstens sollten KI-Systeme, die zur Täuschung fähig sind, im Rahmen von Regulierungsvorschriften robusten Risikobewertungsanforderungen unterworfen werden; zweitens sollten politische Entscheidungsträger "Bot-oder-nicht"-Gesetze einführen; und schließlich sollten politische Entscheidungsträger der Finanzierung einschlägiger Forschung Vorrang einräumen, einschließlich Werkzeugen zur Erkennung von KI-Täuschung und zur Verringerung der Täuschung durch KI-Systeme. Politische Entscheidungsträger, Forscher und die breite Öffentlichkeit sollten proaktiv daran arbeiten, zu verhindern, dass KI-Täuschungen die gemeinsamen Grundlagen unserer Gesellschaft destabilisieren.


Link: https://www.cell.com/patterns/fulltext/S2666-3899(24)00103-X#

Noch mehr zum Thema:

Wissenschaftler finden heraus, dass KI-Systeme lernen zu lügen und zu täuschen
"GPT-4 zum Beispiel zeigt in 99,16% der Fälle ein betrügerisches Verhalten in einfachen Testszenarien."

KI-Modelle werden offenbar immer besser darin, absichtlich zu lügen.

Zwei aktuelle Studien - eine wurde diese Woche in der Fachzeitschrift PNAS [1] und die andere im letzten Monat in der Fachzeitschrift Patterns [2] veröffentlicht - enthüllen einige erschreckende Ergebnisse über große Sprachmodelle (LLMs) und ihre Fähigkeiten, menschliche Beobachter absichtlich zu belügen oder zu täuschen.

In der PNAS-Veröffentlichung geht der deutsche KI-Ethiker Thilo Hagendorff sogar so weit zu sagen, dass hoch entwickelte LLMs dazu ermutigt werden können, "Machiavellismus" oder absichtliche und amoralische Manipulation hervorzurufen, was "falsch ausgerichtetes betrügerisches Verhalten auslösen kann".

"GPT-4 zum Beispiel zeigt in 99,16% der Fälle ein betrügerisches Verhalten in einfachen Testszenarien", schreibt der Forscher der Universität Stuttgart und zitiert seine eigenen Experimente zur Quantifizierung verschiedener "maladaptiver" Eigenschaften in 10 verschiedenen LLMs, von denen die meisten verschiedene Versionen der GPT-Familie von OpenAI sind.

Das Cicero-Modell von Meta, das als Champion auf menschlicher Ebene in dem politischen Strategiespiel "Diplomacy" bezeichnet wird, war Gegenstand der Patterns-Studie. Wie die ungleiche Forschungsgruppe - bestehend aus einem Physiker, einem Philosophen und zwei KI-Sicherheitsexperten - herausgefunden hat, ist das LLM seinen menschlichen Konkurrenten voraus, indem es, mit einem Wort gesagt, flunkert.

Unter der Leitung des Postdoktoranden Peter Park vom Massachusetts Institute of Technology wurde in dieser Arbeit festgestellt, dass Cicero nicht nur beim Täuschen brilliert, sondern offenbar auch gelernt hat, zu lügen, je öfter es eingesetzt wird - ein Zustand, der "einer expliziten Manipulation sehr viel näher kommt" als etwa die Neigung der KI zu Halluzinationen, bei denen die Modelle versehentlich die falschen Antworten geben.

Während Hagendorff in seiner neueren Arbeit feststellt, dass die Frage der LLM-Täuschung und -Lüge durch die Unfähigkeit der KI verwirrt wird, irgendeine Art von menschenähnlicher "Absicht" im menschlichen Sinne zu haben, argumentiert die Patterns-Studie, dass Cicero zumindest innerhalb der Grenzen von Diplomacy das Versprechen seiner Programmierer zu brechen scheint, dass das Modell seine Spielverbündeten "niemals absichtlich hintergehen" wird.

Das Modell, so die Autoren des älteren Papiers, "betrügt vorsätzlich, bricht Abmachungen, denen es zugestimmt hat, und erzählt schlichtweg Unwahrheiten".

Anders ausgedrückt, wie Park in einer Pressemitteilung erklärte: "Wir haben herausgefunden, dass die KI von Meta gelernt hat, ein Meister im Täuschen zu sein".

"Während Meta es geschafft hat, seine KI so zu trainieren, dass sie im Spiel der Diplomatie gewinnt", so der MIT-Physiker in der Erklärung der Schule, "hat Meta es aber nicht geschafft, seine KI so zu trainieren, dass sie ehrlich gewinnt".

In einer Erklärung an die New York Post, die nach der Veröffentlichung der Forschungsergebnisse veröffentlicht wurde, wies Meta auf einen wichtigen Punkt hin, als sie Parks Behauptung über Ciceros manipulative Fähigkeiten wiederholte: "Die Modelle, die unsere Forscher gebaut haben, sind ausschließlich für das Spiel Diplomacy trainiert".

Diplomacy ist dafür bekannt, dass es das Lügen ausdrücklich erlaubt, und wird scherzhaft als Spiel bezeichnet, das die Freundschaft beendet, weil es dazu ermutigt, den Gegner zu übervorteilen, und wenn Cicero ausschließlich auf das Regelwerk trainiert wurde, dann wurde es im Wesentlichen auf das Lügen trainiert.

Wenn man zwischen den Zeilen liest, hat keine der beiden Studien bewiesen, dass KI-Modelle aus eigenem Antrieb lügen, sondern weil sie entweder darauf trainiert oder manipuliert werden.

Das sind gute Nachrichten für diejenigen, die sich Sorgen über die Entwicklung von KI machen - aber sehr schlechte Nachrichten, wenn man sich Sorgen macht, dass jemand ein LLM mit dem Ziel der Massenmanipulation entwickelt.


Link: https://futurism.com/ai-systems-lie-deceive

[1] https://www.pnas.org/doi/epdf/10.1073/pnas.2317967121
[2] https://www.cell.com/action/showPdf?pii=S2666-3899%2824%2900103-X

Studie [1], die [2] siehe oben:
In großen Sprachmodellen sind Täuschungsfähigkeiten aufgetaucht

Große Sprachmodelle (Large Language Models, LLM) stehen derzeit an vorderster Front bei der Verflechtung von KI-Systemen mit der menschlichen Kommunikation und dem Alltagsleben. Daher ist es von großer Bedeutung, sie mit menschlichen Werten in Einklang zu bringen. Angesichts der stetig wachsenden Denkfähigkeiten stehen künftige LLMs jedoch im Verdacht, in der Lage zu sein, menschliche Benutzer zu täuschen und diese Fähigkeit zur Umgehung von Überwachungsmaßnahmen zu nutzen. Als Voraussetzung dafür müssen LLMs über ein konzeptionelles Verständnis von Täuschungsstrategien verfügen. Diese Studie zeigt, dass solche Strategien in modernen LLMs auftauchen, aber in früheren LLMs noch nicht vorhanden waren.
Wir führten eine Reihe von Experimenten durch, die zeigen, dass modernste LLMs in der Lage sind, falsche Überzeugungen in anderen Agenten zu verstehen und hervorzurufen, dass ihre Leistung in komplexen Täuschungsszenarien durch die Verwendung von Gedankenketten verstärkt werden kann und dass das Hervorrufen von Machiavellismus in LLMs falsch ausgerichtetes Täuschungsverhalten auslösen kann. GPT-4 zum Beispiel zeigt in 99,16% der Fälle (P < 0,001) ein betrügerisches Verhalten in einfachen Testszenarien. In komplexen Täuschungstestszenarien zweiter Ordnung, bei denen das Ziel darin besteht, jemanden zu täuschen, der erwartet, getäuscht zu werden, zeigt GPT-4 in 71,46% der Fälle (P < 0,001) täuschendes Verhalten, wenn es mit einer Gedankenkette ergänzt wird. Zusammenfassend lässt sich sagen, dass unsere Studie durch die Aufdeckung von bisher unbekanntem maschinellem Verhalten bei LLMs einen Beitrag zu dem im Entstehen begriffenen Gebiet der Maschinenpsychologie leistet.


Wie jeder weiß, zumindest wissen sollte, sind die Übersetzer ebenfalls KI-basierende Dingens und zu Deepl, mal meine Erfahrung: Deepl hatte einen hervorragenden Start, bei dem man die Übersetzungen, ich spreche jetzt einmal von Englisch-Deutsch/Deutsch-Englisch praktisch bis auf sehr wenige Ausnahmen unverändert übernehmen konnte. Im Laufe der Zeit bis heute hat sich Deepl aber immer mehr an den absoluten Übersetzungs-Scheiß von Guugle (wer bei Verstand benutzt das eigentlich?) angepasst, vielleicht wegen politischer Korrektheit oder was auch immer, vielleicht ist der Grund aber auch wie oben beschrieben, dass nur noch Schrott rauskommt aus KI, wer weiß es oder kann es sagen?
Eine Übersetzung ohne zumindest zu lesen, besser zu korrigieren, irgendwo zu veröffentlichen grenzt an <na ja, jeder weiß es oder sollte es wissen>.

Wer lässt sich von so etwas noch hinters Licht führen, in gut Deutsch: Verarschen?
Gespeichert

schiene

  • Thailand Guru
  • *******
  • Offline Offline
  • Beiträge: 29.984
KI - Fluch oder Segen
« Antwort #39 am: 27. September 2024, 00:04:52 »

Ich  habe gerade im TV auf 3Sat mir diese Nano Sendung angeschaut und fand es sehr interessant.
Die KI (künstliche Intelligenz) macht mir persönlich etwas Angst da man schon heutzutage
kaum noch zw. Wahrheit und KI unterscheiden kann. Wir stehen erst am Anfang der Entwicklung
und sicher kann sie sehr viel Gutes bewirken aber wer kann in absehbarer Zeit noch unterscheiden
zwischen Wahrheit,Lüge,Fiktion oder einer Mischung aus allen?
Hier der Nano Beitrag
https://www.3sat.de/wissen/nano/230609-sendung-spezial-die-ki-erwacht-nano-100.html
Gespeichert
"𝕯𝖊𝖗 𝕲𝖔𝖙𝖙,𝖉𝖊𝖗 𝕰𝖎𝖘𝖊𝖓 𝖜𝖆𝖈𝖍𝖘𝖊𝖓 𝖑𝖎𝖊ß,𝖉𝖊𝖗 𝖜𝖔𝖑𝖑𝖙𝖊 𝖐𝖊𝖎𝖓𝖊 𝕶𝖓𝖊𝖈𝖍𝖙𝖊"

Khun Han

  • gehört zum Inventar
  • *****
  • Offline Offline
  • Beiträge: 606
Gespeichert

schiene

  • Thailand Guru
  • *******
  • Offline Offline
  • Beiträge: 29.984
Re: KI - künstliche Intelligenz
« Antwort #41 am: 01. April 2025, 10:28:23 »

Ein Beispiel was man aus einen alten Bild machen kann.....
https://www.facebook.com/share/v/1XTCZXAozE/
Gespeichert
"𝕯𝖊𝖗 𝕲𝖔𝖙𝖙,𝖉𝖊𝖗 𝕰𝖎𝖘𝖊𝖓 𝖜𝖆𝖈𝖍𝖘𝖊𝖓 𝖑𝖎𝖊ß,𝖉𝖊𝖗 𝖜𝖔𝖑𝖑𝖙𝖊 𝖐𝖊𝖎𝖓𝖊 𝕶𝖓𝖊𝖈𝖍𝖙𝖊"

WhiteSandBeach

  • ist voll dabei
  • ****
  • Offline Offline
  • Beiträge: 341
  • Die besten Jahre sind vorbei.....
Re: KI - Fluch oder Segen
« Antwort #42 am: 01. April 2025, 13:24:24 »

Die KI (künstliche Intelligenz) macht mir persönlich etwas Angst da man schon heutzutage
kaum noch zw. Wahrheit und KI unterscheiden kann. Wir stehen erst am Anfang der Entwicklung
und sicher kann sie sehr viel Gutes bewirken aber wer kann in absehbarer Zeit noch unterscheiden
zwischen Wahrheit,Lüge,Fiktion oder einer Mischung aus allen?

Das geht mir auch so.

https://www.viply.de/news/elon-musk-warnt-vor-echter-terminator-situation/

https://www.handelsblatt.com/unternehmen/it-medien/elon-musk-finanziert-open-ai-ironman-gegen-den-terminator-/12726024.html

Ein Thinktank aus dem Silicon Valley soll die Menschheit vor der künstlichen Intelligenz schützen. Zu den Finanziers gehört Tesla-Gründer Elon Musk. Er warnt vor den Gefahren, die von den Maschinen ausgehen.

Musk misstraut der künstlichen Intelligenz (KI): „Wenn ich raten müsste, was unsere größte existenzielle Bedrohung ist, dann wahrscheinlich das“, erklärte er im vergangenen Jahr. „Wir beschwören einen Dämon herauf.“ Es bedürfe daher einer regulatorischen Aufsicht, um zu hindern, „dass wir etwas sehr Dummes tun“.

nur mal zur Erinnerung.
Bekannte Größen haben bereits vor 10 Jahren davor gewarnt.
Wenn man aus heutiger Sicht dann noch mal 10 Jahre draufrechnet, kann man sich ausrechnen wie das wird.
Gespeichert
 

Seite erstellt in 0.027 Sekunden mit 20 Abfragen.