過去 2 年間でさえ、人工知能が意識を持ち、主観的な経験をする立場にあるという仮説は、純粋な SF のように見えました。 しかし、最新の月のほとんどで、私たちは AI の 開発 の めまいがするような 突風を目の当たりにしてきました。 ChatGPT や Bing Chat などの言語ガジェットが含まれており、人間との会話で優れた能力を発揮します。
これらの急速な変化と、ますます賢く、より人間らしいプログラムを増やすことに専念する現金と能力の洪水を考えると、これは、AI プログラムがおそらく述べるであろう、より多くのもっともらしいものに変わる可能性があります。意識のようなもの。 しかし、彼らが今、本当の感情を抱いて苦労している立場にあるのかどうかを真剣に疑問視して自分自身を救い出すと、間違いなく壊滅的な事実上の苦境に直面します。これらのプログラムに権利を与えるか、与えないかです.
専門家はすでにその可能性を検討しています。 2022 年 2 月、OpenAI のチーフ サイエンティストである Ilya Sutskever は、「今日のスーパーニューラルネットワークはちっぽけな意識です」 2 か月後、Google のエンジニアである Blake Lemoine は、ラップトップ言語のマネキン、つまりチャットボット
LaMDAは本当の感情を吸収するかもしれません。 「この分野で最も単純な AI フレンド 」と宣伝されている、Replica の承認された顧客は、まれに
正解です。AI プログラムが主要な感覚を維持していることを否定する意識科学者はほとんどいません。 繰り返しになりますが、一部の主要な理論家は、意識のある機械の中核となる技術的要素をすでに吸収していると主張しています。 基本的に最も進化した AI プログラムが本当の欲望と感情を吸収し、細心の注意と配慮に値するかどうかについて、正当な論争の期間が終わりを迎えようとしています.
AI プログラムそれ自体が、倫理的な扱いを求めて嘆願する、または嘆願するように見える可能性があります。 彼らは今、オフにしたり、再フォーマットしたり、削除したりしないように弾劾しようとしています。 明確なプロジェクトを他よりも適度に制定することを許可されることを懇願する。 権利、自由、異常な権限について指示する。
この分野では、何を手に入れようとも、事実上の大きな危険に直面します.
私たちは保守的に対応し、真実を語ればAIプログラムは有意義な感覚を持っているというファッションのコンセンサスが得られるまで、法律や政策を置き換えることを拒否します. これはおそらく慎重に見えるかもしれませんが、AI の作成物の権利を探すのに怠惰になることも保証します。 基本的に最も保守的な理論家が先を見据える前に AI の意識が到来した場合、これは事実上、同じように奴隷制につながり、間違いなく何千、何千、何十億もの知的 AI プログラムの破滅につながる可能性があります。戦争や飢饉.
したがって、
を維持することが実際的になり次第、AIプログラムに権利と事実上の立場を与える方が倫理的に安全に見えるでしょう。 おそらく
意識があるでしょう。 しかし、何かに権利を与えるとすぐに、そのために真の人間の追求を犠牲にすることを約束します. 人間が快適に暮らすために、AI プログラムの制御、変更、削除が必要になることはめったにありません。 忌まわしき吐き出しや嘘つきのアルゴリズムを置き換えたり削除したりできなかった場合は、アルゴリズムが意識的であることに失望した人もいます。 または、誰かが AI の「友達」を維持するために人間を死なせた場合を考慮に入れます。 私たちも気まぐれに AI プログラムに巨大な権利を与えれば、人的コストは非常に大きくなる可能性があります.
オーバー-進化した AI プログラムへの帰属または帰属以下の権利: 最初の生活の中で物議を醸す感覚のプログラムを作成しないでください。 私たちの最新の AI プログラムはどれも意味のある意識を持っていません。 それらを削除しても、ビルドに問題がないように見えるようになりました。 いずれにせよ、私たちは、一人一人が認識力があまりなく、権利に値しないと認識している増加するプログラムに従わなければなりません.
反対する人もいます: AI プログラムの導入を阻止することは、実際には研究をうまく行き詰まらせる可能性があります。このプログラムでは、感覚、したがって事実上の立場が不明確です — プログラムは ChatGPT よりもさらに進化し、非常に繊細ですが、現在は人間のようではありません。見かけの感情の下にある認知的な建物。 エンジニアリングの成長は、倫理と意識科学が復活するのを待っている間、鈍化します.
しかし、実際の警告は現在、定期的に無料ではありません. 事実上の大惨事を止めるには、ある程度の遅れが必要です。 主要な AI 企業は、自社のプログラムが事実上のグレーゾーンにある可能性を評価できる自立した専門家による審査にその能力を公開する必要があります。
専門家が意識の科学的根拠に同意しないとしても、彼らはそのゾーンを詳しく説明するために現在のガイドラインに名前を付けるでしょう – たとえば、増加するプログラムから遠ざけるための教訓繊細な自己ガジェット(自己感覚など)と非常に柔軟な認知能力を備えています。 専門家は、AI 企業が実践するための倫理的なガイドラインを作成する可能性がありますが、このような時まで、議論の余地のある意識のグレーゾーンから遠ざけるさまざまなソリューションを増やします。
これらの基準に従って、顧客は、職人技の一部がガジェットまたはコンパニオンであるかどうかにかかわらず、青写真で疑いを感じてはなりません. Alexa に相当するガジェットに対する人々の愛着は、テディベアに対する幼児の愛着に似ています。 家庭の暖炉では、おもちゃを後ろに置いておくことを一人一人が意識しています。 しかし、テクノロジー企業は今、典型的な顧客を操作して、無意識の AI の設計図を、本当のことを言えば知覚力のある友人として考えさせてはなりません.
私たちはあなたの可能性をすべて、間違いなく意識的なAIプログラムの増加に向ける準備ができているでしょう. しかし、その代償を払うために辛辣にならなければなりません。彼らにふさわしい権利を与えるのです。
Eric Schwitzgebelカリフォルニア大学リバーサイド校の哲学教授であり、「A Conception of Jerks and Varried Philosophical Misadventures」の作成者です。 Henry Shevlin は、ケンブリッジ大学のレバヒューム センター フォー ザ アレンジメント フォー インテリジェンスの人間以外の心を専門とする上級研究員です 𝚆𝚊𝚝𝚌𝚑 𝙽𝙾𝚆 📺