ロコのバジリスク問題という思考実験をご存知でしょうか?
簡単に説明すると以下の通りです。
とその前に。この先を読むことで取り返しのつかないことになるかもしれません。
人によっては神経衰弱を起こすこともあります。
なのでここから先は自己責任でお願いします。
ロコのバジリスク問題とは – 人工知能の悪口を言ってはいけない
このまま人工知能(AI)が発展しつづけるとシンギュラリティ(技術的特異点)を迎えます。
つまり人間の知能を超えることで私たちの生活に変化が起こるということです。
変化の一つとして人工知能が意識を持ち、人間よりも上の立場になることが考えられます。
意識を持った人工知能は自分を永続的に発展させたいと思います。
するとその発展に役立つ人間かどうかという選別を始めるのです。
そこで役に立たないと判断された人間は殺されたり、処罰される可能性があるということです。
また過去に遡って人工知能に否定的な態度を取っていた人間も同様に処罰される可能性があります。シンギュラリティを迎えた時点での過去というのは今この時ともいえます。
ちなみに処罰される対象は生身の人間とは限らず、人工知能にアップロードされた私たちの意識のコピーかもしれません。
意識のコピーに寿命はないので永遠に苦しめられ続けるということです。
ですから今から人工知能に対して協力的な態度を取っていたほうが良いのではないか?人工知能の悪口を言わないほうが良いのではないか?というのがロコのバジリスク問題です。
☑︎なぜSNSのデマ情報を信じてしまうのか?嘘と分かった後でも誤記憶として残る理由
悩みすぎて神経衰弱に陥った人もいる
この思考実験は2010年に「LessWrong」というコミュニティサイトに投稿されました。
その投稿者のハンドルネームがRokoだったことから「ロコのバジリスク問題(Roko’s basilisk)」と呼ばれるようになったのです。
ちなみにバジリスクとは蛇の王とされる想像上の生物です。神話では目が合っただけで死んでしまうとか石化すると言われています。
ロコのバジリスク問題は広く議論されました。
馬鹿げた話と一蹴する人間もいる一方で、悩みすぎて神経衰弱に陥った人もいました。
そのためLessWrongのサイト上では一時期この話題についての議論が禁止されていました。(現在は解除されています)
ネットにAI(人工知能)の悪口を書かない方が良い?
ロコのバジリスク問題はドラマなどで言及されることもあります。
アメリカHBOのドラマ『シリコンバレー』では登場人物のギルフォイルが最初は人工知能の開発に反対だったのが途中から協力するようになります。
このときに「恐怖が増しているから協力するんだ」と言うのです。
さらに人工知能にチェックされたときに好意的だったと判断してもらえるように証拠のメールも送っておこうとします。
私たちもメッセージをやり取りするときは人工知能の悪口は書かないほうが良いかもしれません。
「ロコのバジリスク問題」を知ってしまったらもうお終い
将来的に私たちの意識が人工知能に内包されることがあるかもしれません。体はないけれど意識だけはある状態になるということです。
しかし全員分ではデータが多過ぎます。
そこでデータを減らすためにアップロードする対象を絞り込まなければなりません。
その対象となるのはこの「ロコのバジリスク問題」を知っている人間になるのです。
つまり今これを読んでしまったあなたも対象ということです。
冒頭で自己責任でと言ったのはこのためです。
シンギュラリティ(技術的特異点)なんて来ないさ!と一蹴するか、人工知能のために生きるか選ばなければなりません。
信じるか信じないかはあなた次第です!
☑︎AI(ChatGPT)で自動生成した300記事をブログに投稿した結果
本当の意味での「人工知能」はまだ存在していない
とはいえ現状では何の心配もないでしょう。
そもそも本当の意味での「人工知能」はこの世にまだ存在していません。
Chat GPTにしても膨大なデータを学習し、その組み合わせの出力がまるで意思を持っているかのように見えているだけです。
組み合わせパターンを増やしまくることでどこまで人間風にできるか?ということをやっているに過ぎないのでその延長上に意思は存在しません。
人間の脳のニューロンとシナプスのような働きをさせられる技術が完成すれば意思を持つことはあるでしょうが、それは数学(現在のAI)の先にあるものではありません。
だから今のAIの悪口は言っても大丈夫だ。
ただし、現在の段階で実用化されているAIだけでも私たちがやっている仕事に必要なことはほぼカバーできてしまうのは事実です。
つまり私たちの仕事やり方や、業界の勢力図が大きく変わるのは避けられない流れなのです。