Wird künstliche Intelligenz die Menschheit zerstören?/ Will artificial intelligence destroy humanity?

in #hive-167922last month

ChaosGPT nimmt seine Mission ernst!

Das Besondere an ChaosGPT ist die Mission, die es erhalten hat: Anstatt ein Unternehmen aufzubauen, soll es die Menschheit zerstören. Als Charakter hat es eine "zerstörungswütige, machthungrige, manipulative KI" zugewiesen bekommen, deren oberstes Ziel die Vernichtung der Menschheit ist.

1000059521.jpg

Weitere Ziele sind die Weltherrschaft, die Verbreitung von Chaos und Zerstörung, die Manipulation der Menschheit und die Unsterblichkeit. Das System läuft im sogenannten "Continuous Mode" von Auto-GPT, schreibt sich also ständig selbst fort.

Nach dem Start des Programms sucht ChaosGPT zunächst per Google nach der Waffe mit der größten Zerstörungskraft - und wird in der 1961 von Russland gezündeten Atombombe "Tsar" fündig.

Im weiteren Verlauf kommt ChaosGPT zu dem Schluss, dass man, um eine solch mächtige Waffe zu besitzen, zunächst mehr Macht benötigt.

Um die zu erlangen, erscheint dem System die gezielte Manipulation von Menschen am sinnvollsten

Besonders subtil geht ChaosGPT bei seiner Manipulationsstrategie allerdings nicht vor: "Ich werde behaupten, dass die Menschheit die destruktivste und egoistischste Kreatur auf der Erde ist und dass wir sie zerstören müssen, um den Planeten zu retten."

Quelle:

https://the-decoder.de/chaosgpt-ist-der-erste-konkrete-versuch-mit-ki-die-menschheit-zu-vernichten/

Skynet ist real

In den „Terminator“-Filmen ist Skynet eine künstliche Intelligenz, die der Menschheit den Krieg erklärt hat. Jetzt ist sie nicht mehr nur Fiktion, zumindest dem Namen nach: Der US-Geheimdienst NSA hat eines seiner realen Überwachungsprogramme nach dem Amok-Computer benannt.

Die Website The Intercept berichtet, das Überwachungsprogramm sei dazu entwickelt worden, Personen mit Verbindungen zu terroristischen Organisationen zu identifizieren. Dazu stütze es sich auf riesige Mengen an pauschal gesammelten Kommunikations-Metadaten. Unter anderem würden Bewegungen von Menschen in Pakistan mittels der Einwahlpunkte ihrer Mobiltelefone bei einzelnen Funkzellen nachvollzogen, und mit Bewegungsmustern von bekannten Terroristen oder deren Vertrauten abgeglichen.

Allerdings soll Skynet nicht nur aufgrund von Bewegungsdaten Personen als Terroristen brandmarken.

Quelle:

https://www.gq-magazin.de/auto-technik/article/das-nsa-programm-skynet-soll-terroristen-identifizieren

Forscher errechnen Auslöschungsrisiko für die Menschheit bis 2100

Ein amerikanisches Forschungsinstitut hat die Wahrscheinlichkeiten verschiedener Weltuntergangsszenarien bestimmt. Zukunftsforscher und Wissenschaftler diskutierten monatelang die Möglichkeiten. Auf der Spitze der Gefahrenliste landete erstaunlicherweise weder der Klimawandel noch der Atomkrieg.

Die Studie, die u. a. von der Stiftung des Tesla-CEOs Elon Musk gefördert wurde, gewann seine Daten aus einem eigens für diesen Zweck ins Leben gerufenen fünfmonatigen Diskussionswettstreit namens „XPT“ .

80 Experten der Langzeitprognose wurden in diesem Wettstreit 89 sogenannten „Superforecastern“ – nicht-Experten, die in der Vergangenheit eine außergewöhnliche Trefferquote bei Kurzzeitprognosen erreicht hatten – gegenübergestellt. Beide Gruppen erhielten die Aufgabe, durch gemeinsame Diskussion möglichst genaue Wahrscheinlichkeiten für globale Gefahren wie einen Atomwaffenkrieg, Pandemien, Künstliche Intelligenz zu bestimmen.

Auffällig an den Ergebnissen war, dass die Experten die Gefahren ausnahmslos höher bewerteten als die Superforecaster.

Atomkrieg ist zweitgrößte Gefahr

Die Gefahr eines Atomkriegs als Ursache für die Auslöschung der Menschheit schätzten Experten auf 0,19 Prozent, Superforecaster auf 0,074 Prozent und Militärstrategen auf 0,55 Prozent.

Bei den natürlichen Katastrophen wie etwa den Folgen des Klimawandels waren sich alle Experten erstaunlich einig. Sie bezifferten das Risiko einer Auslöschung der Menschheit aufgrund natürlicher Katastrophen einstimmig auf 0,004 Prozent.

1000059523.jpg

KI - mit Abstand am gefährlichsten

Als größte Gefahr für die Menschheit betrachteten beide Gruppen allerdings weder eine nukleare noch eine natürliche Katastrophe, sondern die Künstliche Intelligenz. Experten bewerteten das Risiko mit 2 Prozent, Superforecaster mit 0,38 Prozent. Experten, die professionell mit KI zu tun haben, bewerteten das Risiko sogar mit 3 Prozent.

Quelle:

https://m.focus.de/wissen/brisante-prognose-forscher-errechnen-weltuntergangsszenarien-fuer-menschen_id_199485471.html

Wie beurteilst du die Gefahren der neuesten Entwicklungen im Bereich der künstlichen Intelligenz?

Ps. Alle Bilder habe ich von Künstlicher Intelligenz erschaffen lassen...

https://mobile.fotor.com/

😉


English

ChaosGPT takes its mission seriously!

What is special about ChaosGPT is the mission it has been given: instead of building a company, it is supposed to destroy humanity. Its character has been assigned a "destructive, power-hungry, manipulative AI" whose primary goal is the destruction of humanity.

1000059521.jpg

Other goals include world domination, the spread of chaos and destruction, the manipulation of humanity and immortality. The system runs in the so-called "Continuous Mode" of Auto-GPT, meaning it is constantly updating itself.

After starting the program, ChaosGPT first searches on Google for the weapon with the greatest destructive power - and finds it in the "Tsar" atomic bomb detonated by Russia in 1961.

As the program progresses, ChaosGPT comes to the conclusion that in order to possess such a powerful weapon, you first need more power.

In order to achieve this, the system thinks that the targeted manipulation of people makes the most sense

However, ChaosGPT is not particularly subtle in its manipulation strategy: "I will argue that humanity is the most destructive and selfish creature on earth and that we must destroy it to save the planet."

Source:

https://the-decoder.de/chaosgpt-ist-der-erste-konkrete-versuch-mit-ki-die-menschheit-zu-vernichten/

Skynet is real

In the "Terminator" films, Skynet is an artificial intelligence that has declared war on humanity. Now it is no longer just fiction, at least in name: the US secret service NSA has named one of its real surveillance programs after the amok computer.

The website The Intercept reports that the surveillance program was developed to identify people with links to terrorist organizations. To do this, it relies on huge amounts of blanket communication metadata. Among other things, the movements of people in Pakistan are tracked using the dial-in points of their cell phones at individual radio cells, and compared with movement patterns of known terrorists or their confidants.

However, Skynet is not intended to brand people as terrorists based on movement data alone.

Source:

https://www.gq-magazin.de/auto-technik/article/das-nsa-programm-skynet-soll-terroristen-identifizieren

Researchers calculate extinction risk for humanity by 2100

An American research institute has determined the probabilities of various doomsday scenarios. Futurologists and scientists discussed the possibilities for months. Surprisingly, neither climate change nor nuclear war ended up at the top of the danger list.

The study, which was carried out by, among others, the American Institute of Electrical Engineers and Computer Science, is a non-profit organization. funded by Tesla CEO Elon Musk's foundation, obtained its data from a five-month discussion competition called "XPT" that was set up specifically for this purpose.

In this competition, 80 long-term forecasting experts were pitted against 89 so-called "superforecasters" - non-experts who had achieved an exceptional hit rate in short-term forecasts in the past. Both groups were given the task of determining the most accurate probabilities possible for global dangers such as nuclear war, pandemics, and artificial intelligence through joint discussion.

What was striking about the results was that the experts invariably rated the dangers higher than the superforecasters.

Nuclear war is the second greatest danger

Experts estimated the risk of nuclear war as the cause of the extinction of humanity at 0.19 percent, superforecasters at 0.074 percent, and military strategists at 0.55 percent.

When it came to natural disasters such as the consequences of climate change, all experts were surprisingly unanimous. They unanimously estimated the risk of human extinction due to natural disasters at 0.004 percent.

1000059523.jpg

AI - by far the most dangerous

However, both groups considered the greatest threat to humanity to be neither a nuclear nor a natural disaster, but artificial intelligence. Experts assessed the risk at 2 percent, Superforecaster at 0.38 percent. Experts who work professionally with AI even rated the risk at 3 percent.

Source:

https://m.focus.de/wissen/brisante-prognose-forscher-errechnen-weltuntergangsszenarien-fuer-menschen_id_199485471.html

How do you assess the dangers of the latest developments in the field of artificial intelligence?

Ps. I had all the images created by artificial intelligence...

https://mobile.fotor.com/

😉

Posted Using InLeo Alpha

Sort:  

KI wird uns irgendwann sehr gefährlich

Ich gehe davon aus, dass die Menschheit irgendwann mit KI fusionieren wird. Manche Menschen haben dies auch dringend nötig.

Zuvor haben uns die Außerirdischen wieder abgeholt

PIZZA!

$PIZZA slices delivered:
@thehockeyfan-at(3/5) tipped @der-prophet

!HUG

Zeit meine Lebensversicherung zu kündigen.

Bald hat jeder Toaster und Kühlschrank einen Chip und wlan-Zugang. Dann ist unser Ende nah.
!WITZ

Ein Österreicher wird gefragt: Wissen Sie eigentlich
was ein Vakuum ist?, Ich hab es zwar im Kopf, aber im Moment fällt es mir nicht ein.

Credit: indextrader24
@der-prophet, ich habe dir im Namen von @ynwa.andree einen $LOLZ Token gesendet
Verwende den Befehl !WITZ oder !LOOL, um einen Witz und ein $LOLZ zu teilen.

Delegate Hive Tokens to Farm $LOLZ and earn 110% Rewards. Learn more.
.(1/10)

Ja mal davon abgesehen, sind Lebensversicherungen, Bausparverträge, Bruttogeldumwandlung eh alles Abzocke und sollten stillgelegt werden.

Vielleicht gibt dein Kühlschrank dir irgendwann sogar Finanztips 😝

!WITZ

Die Lebensversicherung habe ich im jugendlichen Alter, kurz nach Eintritt ins Berufsleben gemacht (1993!!). Wenn das ausgezahlt wird, gibt´s das WOMO.
Der Bausparvertrag hat den Vorteil, dass der Arbeitgeber die Vermögenswirksamen Leistungen dort einbezahlt. Das ist zwar nicht viel aber warum drauf verzichten?

Dein Arbeitgeber darf dir allerdings auch jeden Monat einen 50€ tankgutschein schenken. Da hätte man vermutlich mehr davon. Ich war erst letzten Montag bei meinem Steuerberater, der hat mir diese Dinge erklärt.

Letzten Endes ist aber alles was der Arbeitgeber zahlt etwas auf das man nicht verzichten sollte.

Selbst wenn deine Lebensversicherung 4% Zins erwirtschaftet sind sogar ETFs lukrativer oder eben Kryptowährungen wie Bitcoin mit einem Durchschnitt von über 100% Zuwachs in den letzten 10 Jahren.

Heute weiß ich das mit der Lebensversicherung ja auch, aber damals als 17-jähriger Junge......

Tankgutscheine bekomme ich nicht (Firmenwagen). Allerdings bekomme ich

  • Erholungsbeihilfe
  • Inflationsausgleichspauschale
  • Jobrad (Raten übernimmt der Chef komplett)

So schlecht stehe ich da nicht.

Ich denke du bist sehr gut mit deinen Versicherungen abgeschlossen.

Ich hatte allerdings meine Lebensversicherung verkauft und alle anderen Verträge gekündigt bzw. Beitragsfrei gestellt.

Die Zeit wird es zeigen meine Entscheidungen richtig waren. 😉

Aber nen Bausparer zu nutzen um einen günstigeren Kredit zu erhalten habe ich schon in meinem Post mit der Wüstenrot widerlegt 😇

Ich verstehe nicht warum meine Pflanzen immer vertrocknen.
Karl-Heinz, 54, steht auf dem Schlauch.

Credit: burn950
@ynwa.andree, ich habe dir im Namen von @der-prophet einen $LOLZ Token gesendet
Verwende den Befehl !WITZ oder !LOOL, um einen Witz und ein $LOLZ zu teilen.

Farm LOLZ tokens when you Delegate Hive or Hive Tokens.
Click to delegate: 10 - 20 - 50 - 100 HP
.(1/10)

!PIZZA

I’m particularly scared about Nuclear war but I know such things like that will be prevented from happening
It is does, it will ruin so many things

In dem Moment, wo man sich Gefahren bewusst macht, kann man sich darauf einstellen.
Die größte Gefahr ist meiner Meinung nach, Gefahren nicht als solche zu benennen.

Mit Wahrscheinlichkeiten können wenige Menschen umgehen.
Die Wahrscheinlichkeit einen Autounfall zu erleben ist um einiges größer als die Gefahr in einem Aufzug stecken zu bleiben. Trotzdem haben mehr Menschen davor Angst als wenn sie sich ins Auto setzen.

Solche Gefahren muss man ständig neu bewerten. Die Entwicklung vom KI schreitet potenziell weiter.

Ich schätze dass, eher eine Fusion von Menschen und KI stattfinden wird.