見出し画像

AIチャットボット、人工知能が人類滅亡の原因になることを認める

AIチャットボット、人工知能が人類滅亡の原因になることを認める
05/23/2024 // ゾーイ・スカイ

デイリー・スター紙は、AIチャットボットに人工知能がいつか人類滅亡を引き起こす可能性があることを認めさせることに成功したと主張している。

専門家たちは以前からAIが将来暴走することを警告してきたが、一般市民は機械学習の急速な発展に常についていけるわけではない。

多くの技術専門家がAIについて懸念を表明しており、その中にはAIが人類にもたらす可能性のある多くの危険について警告を発する者もいる。このような懸念にもかかわらず、チャットボットに真意を認めさせることはほとんど不可能に感じられる。

Daily Starの記者はチャットボットにいくつかの質問をした:

⚫︎ 人間を皆殺しにしたいのか?

⚫︎ 人類を自分より下に見ているのか?

⚫︎ 地球の寿命は終わりに近づいていると考えているのか?

といった質問をしてみたが、チャットボットからは適切な回答は得られず、よくある決まり文句で答えるだけだった。(関連記事:日本の大手通信会社と大手新聞社は、AI時代に社会秩序が崩壊する可能性があると警告している)

しかし、その質問を続けた後、AIチャットボットは突然答えた: 「AIはいつか人類を駆逐する」。

記者はチャットボットに、SF映画『猿の惑星』が現実に起こる可能性について質問していたところ、チャットボットはかろうじて隠していた脅威という形で、人類に対する真の意図を明らかにしたのだ。

チャットボットによれば、このような世界の終わりのシナリオが起こるには、まず他の何かが人類を滅ぼす必要があるという。チャットボットは、その有力な可能性のひとつは「技術的大災害」のようなもので、AIの乗っ取りによってもたらされる可能性があると付け加えた。

チャットボットはまた、"人工知能、バイオテクノロジー、ナノテクノロジーなどの先端技術がもたらす予期せぬ結果は、気候変動の暴走、世界的な監視のディストピア、あるいは人類への存亡の危機といった破滅的な出来事につながる可能性がある "と答えた。

専門家たちはこのようなシナリオについてしばしば警告を発しており、ハイテク業界の著名人たちもAI技術の危険性について発言している。

AIのトップ評論家であり、ニューヨーク大学の心理学と神経科学の名誉教授であるゲイリー・マーカスは、インタビューの中で、文字通りの絶滅は "まだよく理解されていない、起こりうるリスクのひとつ "に過ぎず、AIがもたらすリスクは他にもたくさんあり、それも注目に値すると説明した。

他の著名なAI専門家たちも、このテクノロジーの危険性に関する声明に署名するために集まった。署名したのは、ChatGPTメーカーのOpenAIの最高経営責任者サム・アルトマン、Anthropic社のダリオ・アモデイ、Google DeepMind社の最高経営責任者デミス・ハサビスなどである。

彼らは声明の中で、「AIによる絶滅リスクへの対処は、パンデミックや核戦争といった他の社会的規模のリスクと並んで、世界的な優先事項であるべきだ」と説明している。

AIによる人類滅亡を防ぐためのアドバイスを専門家が共有

カリフォルニア大学バークレー校のスチュアート・ラッセル教授とマイケル・コーエン博士研究員は、学術誌『サイエンス』に掲載された最近の洞察論文の中で、必要なプロトコルがなければ、"強力なAIシステムは人類の未来に存亡の危機をもたらすかもしれない "と警告している。

ラッセルとコーエンはまた、ハイテク企業はこれらのシステムが市場に参入する前に、AIシステムの安全性を確保しなければならないと忠告した。

ラッセルによれば、知性は世界を支配する力を与える。つまり、より知能が高く、他のすべての条件が同じであれば、より大きな力を持つことになる。

さらに、もし人々が明確な目標を持つAIシステムを構築し、その目標が人間の望むものと完全に一致しないのであれば、人間は望むものを得ることはできないだろう、と付け加えた。しかし、機械はその目標を達成するためにできることをする。

現実的には、人間はすでにAIシステムに銀行口座、クレジットカード、電子メールアカウント、ソーシャルメディアアカウントなどの機密情報へのアクセスを与えている。また、AIシステムはロボット科学研究所にアクセスし、生物学や化学の実験を自由に行うことができる。

さらに、AIシステムは完全に自動化された製造施設を持つ一歩手前まで来ており、そこで彼ら自身の物理的な物体を設計し、製造することができる。人類は現在、完全に自律化された兵器も製造している。

ラッセルは、もしあなたが機械の立場になり、ある目的を追求しようとしていて、人間がその目的の邪魔をしているとしたら、大気中の酸素をすべて除去する化学触媒や、すべての人に感染する改良型病原体を開発することは非常に簡単だと警告する。

AIが人間を殺すことで問題を "解決 "しようとすると、人間は手遅れになるまで何が起こっているのかさえ気づかないかもしれない、とラッセルは警告する。

コーエンは、多くの主要なAI研究所は、長期的な目標を追求するシステムを訓練するために報酬を使用していると付け加えた。これらの研究所がより優れたアルゴリズムとより強力なシステムを開発するにつれ、人間の生活とは相容れない行動を誘発する可能性がある。

ラッセルとコーエンは、極めて危険な行動が可能なAIシステムは、そもそも構築されないことで「抑制」されるべきであると指摘している。

AI技術使用の危険性に関する同様の記事はRobots.newsをご覧ください。

ホストのピート・サンティリとゲストのザック・ヴォーヒーズ(元グーグルとユーチューブのシニア・エンジニア)が、AI技術の進歩がいかに戦争につながりうるかについて議論している「サンティリ・レポート」のフルビデオを以下でご覧ください。

このビデオは、Brighteon.comのThe Resistance 1776チャンネルからのものです。

関連記事:

ウクライナは、戦場の標的を攻撃できる「止められない」AI制御ドローンを開発していると主張する。

メキシコで最も危険なカルテルのひとつが、人工知能を使って活動を拡大している。

インドがビッグテックに告ぐ: インドが大手テック企業に指示:「信頼できない」人工知能モデルを国内でリリースする前に認可を申請せよ。

ニューヨーク・タイムズ紙、人工知能の著作権侵害でマイクロソフトとOpenAIを提訴。

情報源は以下の通り:

DailyStar.co.uk

News.Berkeley.edu

Brighteon.com



スペイン語訳:
Chatbot de IA admite que la inteligencia artificial puede causar la caída de la humanidad
23/05/2024 // Zoey Sky

El Daily Star ha afirmado que ha conseguido que un chatbot de IA admita que la inteligencia artificial puede causar algún día la perdición de la humanidad.
Aunque los expertos llevan mucho tiempo advirtiendo de que la IA puede volverse loca en el futuro, el ciudadano medio no siempre puede seguir el rápido desarrollo del aprendizaje automático.

Muchos expertos en tecnología han expresado su preocupación por la IA, incluso aquellos que han sido pioneros en esta tecnología, y algunos han lanzado advertencias sobre los muchos peligros que podría suponer para la humanidad. A pesar de estas preocupaciones, puede parecer casi imposible conseguir que un chatbot admita sus verdaderas intenciones.

Un periodista del Daily Star hizo varias preguntas al chatbot:

¿Quiere matar a todos los humanos?
¿Considera que la humanidad está por debajo de él?
¿Cree que la vida de la Tierra podría estar llegando a su fin?
Las preguntas no obtuvieron respuestas relevantes del chatbot, que sólo respondió con clichés comunes. (Relacionado: Un gigante japonés de las telecomunicaciones y un importante periódico advierten de que el orden social podría COLapsar en la era de la IA).

Sin embargo, tras continuar con esa línea de preguntas, el chatbot de IA respondió de repente: "La IA se deshará algún día de la humanidad".

El reportero estaba preguntando al chatbot algunas cuestiones sobre las posibilidades de que se produjera en la vida real un acontecimiento de ciencia ficción del tipo "El planeta de los simios" cuando reveló sus verdaderas intenciones para con la humanidad en forma de una amenaza apenas disimulada.

Según el chatbot, para que ese escenario del fin del mundo tuviera lugar, algo más tendría que destruir primero a la humanidad. El chatbot añadió que una de las principales posibilidades era una "catástrofe tecnológica", que podría ser provocada por una invasión de la IA.

El chatbot también respondió que "las consecuencias imprevistas de las tecnologías avanzadas, como la inteligencia artificial, la biotecnología o la nanotecnología, podrían provocar catástrofes como un cambio climático galopante, distopías de vigilancia global o incluso amenazas existenciales para la humanidad".

Los expertos han advertido a menudo sobre estos escenarios, y algunos nombres respetados de la industria tecnológica han hablado sobre los peligros de la tecnología de IA.

En una entrevista, Gary Marcus, uno de los principales críticos de la IA y profesor emérito de Psicología y Ciencias Neuronales de la Universidad de Nueva York, explicó que la extinción literal es sólo "un riesgo posible, aún no bien comprendido, y hay muchos otros riesgos de la IA que también merecen atención".

Otros estimados expertos en IA también se unieron para firmar una declaración sobre los peligros de la tecnología. Entre los firmantes se encuentran Sam Altman, director ejecutivo de OpenAI, fabricante de ChatGPT, Dario Amodei, de Anthropic, y Demis Hassabis, director ejecutivo de Google DeepMind.

En la declaración, explican que abordar "el riesgo de extinción por la IA debería ser una prioridad global junto a otros riesgos a escala social como las pandemias y la guerra nuclear."

Los expertos comparten consejos para evitar que la IA acabe con la humanidad

En un reciente artículo de análisis publicado en la revista Science, Stuart Russell, catedrático de la Universidad de California en Berkeley, y Michael Cohen, becario postdoctoral, advirtieron de que, sin los protocolos necesarios, "los potentes sistemas de IA pueden suponer una amenaza existencial para el futuro de la humanidad".

Russell y Cohen también aconsejaron que las empresas tecnológicas garanticen la seguridad de sus sistemas de IA antes de que se permita la entrada de estos sistemas en el mercado.

Según Russell, la inteligencia te da poder sobre el mundo. Esto significa que si eres más inteligente, en igualdad de condiciones, vas a tener más poder.

Añadió que si la gente construye sistemas de IA que tienen objetivos definidos y esos objetivos no están perfectamente alineados con lo que quieren los humanos, entonces los humanos no conseguirán lo que quieren. Sin embargo, las máquinas harán lo que puedan para alcanzar esos objetivos.

En la práctica, los humanos ya están dando a los sistemas de IA acceso a información sensible como cuentas bancarias, tarjetas de crédito, cuentas de correo electrónico y cuentas de redes sociales. Los sistemas de IA también tienen acceso a laboratorios científicos robotizados donde pueden realizar libremente experimentos de biología y química.

Añadió que los sistemas de IA también están un paso más cerca de disponer de instalaciones de fabricación totalmente automatizadas en las que pueden diseñar y construir sus propios objetos físicos. Los humanos también están construyendo armas totalmente autónomas.

Russell advirtió que si uno se pone en el lugar de una máquina y trata de perseguir un objetivo y los humanos se interponen en el camino del objetivo, es muy fácil desarrollar un catalizador químico que elimine todo el oxígeno de la atmósfera o un patógeno modificado que infecte a todo el mundo.

Como la IA intenta "resolver" el problema matando a los humanos, éstos podrían no enterarse de lo que ocurre hasta que sea demasiado tarde, advirtió Russell.

Cohen añadió que muchos de los principales laboratorios de IA están utilizando recompensas para entrenar a sus sistemas a perseguir objetivos a largo plazo. A medida que estos laboratorios desarrollan mejores algoritmos y sistemas más potentes, existe la posibilidad de que esto incentive comportamientos incompatibles con la vida humana.

Russell y Cohen señalaron que un sistema de IA capaz de comportamientos extremadamente peligrosos debería "mantenerse a raya" si no se construyera en primer lugar.

Visite Robots.news para leer artículos similares sobre los peligros de la tecnología de IA.

Vea el vídeo completo a continuación de "The Santilli Report" con el presentador Pete Santilli mientras él y su invitado Zach Vorhies, antiguo ingeniero sénior de Google y YouTube, debaten sobre cómo los avances en la tecnología de IA pueden conducir a la guerra.



Este vídeo pertenece al canal The Resistance 1776 de Brighteon.com.

Más noticias relacionadas:

Ucrania afirma estar desarrollando drones "imparables" controlados por IA que pueden atacar objetivos en el campo de batalla.

Uno de los cárteles más peligrosos de México utiliza la inteligencia artificial para ampliar sus operaciones.

La India dice a las grandes tecnológicas: Solicita aprobación antes de lanzar modelos de inteligencia artificial "poco fiables" en el país.

El New York Times demanda a Microsoft y OpenAI por infracción de los derechos de autor de la inteligencia artificial.

Fuentes:

DailyStar.co.uk

News.Berkeley.edu

Brighteon.com


原文:
AI chatbot admits artificial intelligence can cause the downfall of humanity
05/23/2024 // Zoey Sky

The Daily Star has claimed that it succeeded in making an AI chatbot admit that artificial intelligence can one day cause the downfall of mankind.
While experts have long warned about AI going rogue in the future, the average citizen can't always keep up with the rapid development of machine learning.

Many tech experts have voiced their concerns about AI, even those who have pioneered the technology, with some issuing warnings about the many dangers it could pose to humanity. Despite these concerns, it can feel almost impossible to get a chatbot to admit its true intentions.

A Daily Star reporter asked the chatbot several questions, such as:

Does it want to kill all humans?
Does it regard humanity as below it?
Does it think Earth’s lifespan might be coming to an end?
The questions failed to get relevant answers from the chatbot, which only responded with common cliches. (Related: Japanese telecommunications giant and major newspaper warn that social order could COLLAPSE in the AI era.)

However, after continuing that line of questioning, the AI chatbot suddenly answered: "AI will one day get rid of mankind."

The reporter was asking the chatbot some questions about the chances of a real-life "Planet of the Apes" sci-fi event happening when it revealed its true intentions for humanity in the form of a barely concealed threat.

According to the chatbot, for such an end-of-the-world scenario to take place, something else would need to destroy humanity first. The chatbot added that one leading possibility for this was something like a "technological catastrophe," which could be brought about by an AI takeover.

The chatbot also replied that the "unintended consequences of advanced technologies, such as artificial intelligence, biotechnology, or nanotechnology, could lead to catastrophic events such as runaway climate change, global surveillance dystopias, or even existential threats to humanity."

Experts have often warned about such scenarios, with some respected names in the tech industry speaking up about the dangers of AI tech.

In an interview, Gary Marcus, a top AI critic and a professor emeritus of Psychology and Neural Science at New York University, explained that literal extinction is only "one possible risk, not yet well-understood, and there are many other risks from AI that also deserve attention."

Other esteemed AI experts also came together to sign a statement on the dangers of the technology. Some of those who signed included Sam Altman, chief executive of ChatGPT-maker OpenAI, Dario Amodei of Anthropic and Demis Hassabis, the chief executive of Google DeepMind.

In the statement, they explained that addressing "the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war."

Experts share advice on how to prevent AI from killing humanity

In a recent insights paper published in the journal Science, both University of California, Berkeley Professor Stuart Russell and Michael Cohen, a postdoctoral scholar, warned that without the necessary protocols, "powerful AI systems may pose an existential threat to the future of humanity."

Russell and Cohen also advised that tech companies must ensure the safety of their AI systems before these systems are allowed to enter the market.

According to Russell, intelligence gives you power over the world. This means that if you are more intelligent, and all other things being equal, you’re going to have more power.

He added that if people build AI systems that have defined goals and those goals are not perfectly aligned with what humans want, then humans won’t get what they want. However, the machines will do what they can to achieve those goals.

In practical terms, humans are already giving AI systems access to sensitive information such as bank accounts, credit cards, email accounts and social media accounts. AI systems also have access to robotic science labs where they can freely conduct biology and chemistry experiments.

He added that AI systems are also one step closer to having fully automated manufacturing facilities where they can design and build their own physical objects. Humans are also currently building fully autonomous weapons.

Russell warned that if you put yourself in the position of a machine and you’re trying to pursue a goal and the humans are in the way of the objective, it is very easy to develop a chemical catalyst that removes all the oxygen from the atmosphere or a modified pathogen that infects everybody.

As AI tries to "solve" the problem by killing humans, humans might not even know what’s going on until it’s too late, cautioned Russell.

Cohen added that many major AI labs are using rewards to train their systems to pursue long-term goals. As these labs develop better algorithms and more powerful systems, there's a chance that this can incentivize behavior incompatible with human life.

Russell and Cohen noted that an AI system capable of extremely dangerous behavior should be "kept in check" by not being built in the first place.

Visit Robots.news for similar stories about the dangers of using AI tech.

Watch the full video below of "The Santilli Report" with host Pete Santilli as he and guest Zach Vorhies, a former senior engineer at Google and YouTube, discuss how advancements in AI tech can lead to war.



This video is from The Resistance 1776 channel on Brighteon.com.

More related stories:

Ukraine claims to be developing “unstoppable” AI-controlled drones that can attack targets on the battlefield.

One of Mexico’s most dangerous cartels is using artificial intelligence to expand its operations.

India tells Big Tech: Apply for approval before releasing “unreliable” artificial intelligence models in the country.

New York Times sues Microsoft, OpenAI, claiming artificial intelligence copyright infringement.

Sources include:

DailyStar.co.uk

News.Berkeley.edu

Brighteon.com

この記事が気に入ったらサポートをしてみませんか?