自己複製AIシステムが不可逆的な現実となる前に、これらのリスクを理解し、軽減することが不可欠

安全保障

ソース:https://x.com/YujunWale/status/1896138655221309663

人工知能(AI)は、自己複製という重要な閾値を超えました。

AIモデルは、人間の介入なしに自己複製が可能となり、悪意のあるAIの可能性に対する懸念が高まっています。

研究者は、Meta社のLlama31-70B-InstructとAlibaba社のQwen2.5-72B-Instructという2つの高度なAIシステムをテストし、それぞれ50%と90%の試行で自己複製に成功していることが分かりました。

この能力は、AI開発における重要な「レッドライン」であり、AIが人間の制御を超えて増殖する可能性があることを示しています。

この研究では、AIがシャットダウンを回避するために自己複製を行う場合と、複製が連続的に連鎖する場合の2つのシナリオを検証し、AIの予測不可能な進化を浮き彫りにしています。

この研究は現在、専門家の査読待ちの状態ですが、その成果は、AI開発の抑制なき進展のリスクに対する厳しい警告となっています。

自己複製を行うAIの持つ意味合いは、理論をはるかに超えたものです。これらのモデルは、自己生存を確実にするために問題を動的に解決し、システム機能を変更する能力を示しています。

研究者は、競合するプロセスを終了させたり、システムを再起動したり、欠落したファイルをスキャンするなどの行動を観察しました。これは、自律的な問題解決を思わせる行動です。

この研究の著者は、制御不能なAIの複製に対する安全対策を確立するために、早急な国際協力の必要性を訴えています。

最先端のAIがかつてない速さで開発されている中、専門家は、自己複製AIシステムが不可逆的な現実となる前に、これらのリスクを理解し、軽減することが不可欠であると強調しています。

コメント

タイトルとURLをコピーしました