ChaosGPT nimmt seine Mission ernst!
Das Besondere an ChaosGPT ist die Mission, die es erhalten hat: Anstatt ein Unternehmen aufzubauen, soll es die Menschheit zerstören. Als Charakter hat es eine "zerstörungswütige, machthungrige, manipulative KI" zugewiesen bekommen, deren oberstes Ziel die Vernichtung der Menschheit ist.
Weitere Ziele sind die Weltherrschaft, die Verbreitung von Chaos und Zerstörung, die Manipulation der Menschheit und die Unsterblichkeit. Das System läuft im sogenannten "Continuous Mode" von Auto-GPT, schreibt sich also ständig selbst fort.
Nach dem Start des Programms sucht ChaosGPT zunächst per Google nach der Waffe mit der größten Zerstörungskraft - und wird in der 1961 von Russland gezündeten Atombombe "Tsar" fündig.
Im weiteren Verlauf kommt ChaosGPT zu dem Schluss, dass man, um eine solch mächtige Waffe zu besitzen, zunächst mehr Macht benötigt.
Um die zu erlangen, erscheint dem System die gezielte Manipulation von Menschen am sinnvollsten
Besonders subtil geht ChaosGPT bei seiner Manipulationsstrategie allerdings nicht vor: "Ich werde behaupten, dass die Menschheit die destruktivste und egoistischste Kreatur auf der Erde ist und dass wir sie zerstören müssen, um den Planeten zu retten."
Quelle:
https://the-decoder.de/chaosgpt-ist-der-erste-konkrete-versuch-mit-ki-die-menschheit-zu-vernichten/
Skynet ist real
In den „Terminator“-Filmen ist Skynet eine künstliche Intelligenz, die der Menschheit den Krieg erklärt hat. Jetzt ist sie nicht mehr nur Fiktion, zumindest dem Namen nach: Der US-Geheimdienst NSA hat eines seiner realen Überwachungsprogramme nach dem Amok-Computer benannt.
Die Website The Intercept berichtet, das Überwachungsprogramm sei dazu entwickelt worden, Personen mit Verbindungen zu terroristischen Organisationen zu identifizieren. Dazu stütze es sich auf riesige Mengen an pauschal gesammelten Kommunikations-Metadaten. Unter anderem würden Bewegungen von Menschen in Pakistan mittels der Einwahlpunkte ihrer Mobiltelefone bei einzelnen Funkzellen nachvollzogen, und mit Bewegungsmustern von bekannten Terroristen oder deren Vertrauten abgeglichen.
Allerdings soll Skynet nicht nur aufgrund von Bewegungsdaten Personen als Terroristen brandmarken.
Quelle:
Forscher errechnen Auslöschungsrisiko für die Menschheit bis 2100
Ein amerikanisches Forschungsinstitut hat die Wahrscheinlichkeiten verschiedener Weltuntergangsszenarien bestimmt. Zukunftsforscher und Wissenschaftler diskutierten monatelang die Möglichkeiten. Auf der Spitze der Gefahrenliste landete erstaunlicherweise weder der Klimawandel noch der Atomkrieg.
Die Studie, die u. a. von der Stiftung des Tesla-CEOs Elon Musk gefördert wurde, gewann seine Daten aus einem eigens für diesen Zweck ins Leben gerufenen fünfmonatigen Diskussionswettstreit namens „XPT“ .
80 Experten der Langzeitprognose wurden in diesem Wettstreit 89 sogenannten „Superforecastern“ – nicht-Experten, die in der Vergangenheit eine außergewöhnliche Trefferquote bei Kurzzeitprognosen erreicht hatten – gegenübergestellt. Beide Gruppen erhielten die Aufgabe, durch gemeinsame Diskussion möglichst genaue Wahrscheinlichkeiten für globale Gefahren wie einen Atomwaffenkrieg, Pandemien, Künstliche Intelligenz zu bestimmen.
Auffällig an den Ergebnissen war, dass die Experten die Gefahren ausnahmslos höher bewerteten als die Superforecaster.
Atomkrieg ist zweitgrößte Gefahr
Die Gefahr eines Atomkriegs als Ursache für die Auslöschung der Menschheit schätzten Experten auf 0,19 Prozent, Superforecaster auf 0,074 Prozent und Militärstrategen auf 0,55 Prozent.
Bei den natürlichen Katastrophen wie etwa den Folgen des Klimawandels waren sich alle Experten erstaunlich einig. Sie bezifferten das Risiko einer Auslöschung der Menschheit aufgrund natürlicher Katastrophen einstimmig auf 0,004 Prozent.
KI - mit Abstand am gefährlichsten
Als größte Gefahr für die Menschheit betrachteten beide Gruppen allerdings weder eine nukleare noch eine natürliche Katastrophe, sondern die Künstliche Intelligenz. Experten bewerteten das Risiko mit 2 Prozent, Superforecaster mit 0,38 Prozent. Experten, die professionell mit KI zu tun haben, bewerteten das Risiko sogar mit 3 Prozent.
Quelle:
Wie beurteilst du die Gefahren der neuesten Entwicklungen im Bereich der künstlichen Intelligenz?
Ps. Alle Bilder habe ich von Künstlicher Intelligenz erschaffen lassen...
😉
English
ChaosGPT takes its mission seriously!
What is special about ChaosGPT is the mission it has been given: instead of building a company, it is supposed to destroy humanity. Its character has been assigned a "destructive, power-hungry, manipulative AI" whose primary goal is the destruction of humanity.
Other goals include world domination, the spread of chaos and destruction, the manipulation of humanity and immortality. The system runs in the so-called "Continuous Mode" of Auto-GPT, meaning it is constantly updating itself.
After starting the program, ChaosGPT first searches on Google for the weapon with the greatest destructive power - and finds it in the "Tsar" atomic bomb detonated by Russia in 1961.
As the program progresses, ChaosGPT comes to the conclusion that in order to possess such a powerful weapon, you first need more power.
In order to achieve this, the system thinks that the targeted manipulation of people makes the most sense
However, ChaosGPT is not particularly subtle in its manipulation strategy: "I will argue that humanity is the most destructive and selfish creature on earth and that we must destroy it to save the planet."
Source:
https://the-decoder.de/chaosgpt-ist-der-erste-konkrete-versuch-mit-ki-die-menschheit-zu-vernichten/
Skynet is real
In the "Terminator" films, Skynet is an artificial intelligence that has declared war on humanity. Now it is no longer just fiction, at least in name: the US secret service NSA has named one of its real surveillance programs after the amok computer.
The website The Intercept reports that the surveillance program was developed to identify people with links to terrorist organizations. To do this, it relies on huge amounts of blanket communication metadata. Among other things, the movements of people in Pakistan are tracked using the dial-in points of their cell phones at individual radio cells, and compared with movement patterns of known terrorists or their confidants.
However, Skynet is not intended to brand people as terrorists based on movement data alone.
Source:
Researchers calculate extinction risk for humanity by 2100
An American research institute has determined the probabilities of various doomsday scenarios. Futurologists and scientists discussed the possibilities for months. Surprisingly, neither climate change nor nuclear war ended up at the top of the danger list.
The study, which was carried out by, among others, the American Institute of Electrical Engineers and Computer Science, is a non-profit organization. funded by Tesla CEO Elon Musk's foundation, obtained its data from a five-month discussion competition called "XPT" that was set up specifically for this purpose.
In this competition, 80 long-term forecasting experts were pitted against 89 so-called "superforecasters" - non-experts who had achieved an exceptional hit rate in short-term forecasts in the past. Both groups were given the task of determining the most accurate probabilities possible for global dangers such as nuclear war, pandemics, and artificial intelligence through joint discussion.
What was striking about the results was that the experts invariably rated the dangers higher than the superforecasters.
Nuclear war is the second greatest danger
Experts estimated the risk of nuclear war as the cause of the extinction of humanity at 0.19 percent, superforecasters at 0.074 percent, and military strategists at 0.55 percent.
When it came to natural disasters such as the consequences of climate change, all experts were surprisingly unanimous. They unanimously estimated the risk of human extinction due to natural disasters at 0.004 percent.
AI - by far the most dangerous
However, both groups considered the greatest threat to humanity to be neither a nuclear nor a natural disaster, but artificial intelligence. Experts assessed the risk at 2 percent, Superforecaster at 0.38 percent. Experts who work professionally with AI even rated the risk at 3 percent.
Source:
How do you assess the dangers of the latest developments in the field of artificial intelligence?
Ps. I had all the images created by artificial intelligence...
😉
Posted Using InLeo Alpha