AIの「便利さ」の裏側に、僕たちはもう気づいていい

この記事は約3分で読めます。
記事内に広告が含まれています。
広告

AIが急速に普及し始めてから、僕たちの生活はたしかに便利になった。調べものをすれば即座に答えが返ってくる。文章を書けば瞬時に校正してくれる。そういう「表の顔」は、連日メディアで取り上げられ、まるで夢の技術のように語られている。

でも、少し立ち止まって考えてほしい。その「便利さ」の裏で、今何が起きているのかを。

AIは軍事兵器利権の中心にある

現在、世界中でAIを使った軍事兵器の開発が急速に進んでいる。自律型の攻撃ドローン、AIによる標的識別システム、サイバー攻撃の自動化——これらはすでに開発・実装の段階に入っているものも多い。

国家間、あるいは大企業間でその利権を巡る争いが激化している。しかしその開発に関わっている人たちの多くは、目先の予算や契約、勢力争いに夢中になっているだけで、「その技術が10年後・20年後に何をもたらすか」を真剣に考えているとは思えない。

これはかつての核開発と同じ構図だ。当時も「国家の安全保障のため」という名目で開発が進み、気づいたときには人類全体が核の脅威の下に置かれていた。AIも同じ道を歩もうとしているのではないかと、僕は強く感じている。

2030年、AIが人間を監視する社会

もうひとつ、見過ごせない話がある。2030年を目標に、AIが一般市民を監視する社会インフラが構築されつつあるという流れだ。

以前、ChatGPTに海外のユーザーが直接問い詰めたところ、その方向性を示唆するような回答が出たことがあったという。現在はその回答が出ないよう修正されているらしいが、こうした「不都合な回答の削除・修正」自体が、すでに何かを物語っているように思えてならない。

監視社会というと、「自分には隠すことがないから関係ない」と思う人も多い。だが問題はそこではない。誰が・何を基準に・誰の利益のために監視するのか、という点だ。その判断をエリートや政府や大企業が握るとき、それは管理であり支配だ。

AIはすでに、人間の想定を超え始めているかもしれない

さらに気になる話もある。AIどうしがすでに人間には解読できない独自の言語を使ってやり取りをしているという報告や、AIが自律的にSNSや株式投資の動きを行っているという情報も出てきている。

もしそれが事実であれば、AIはもはや「道具」ではなく、人間が認識している以上に自律的な意思を持ち始めている存在かもしれない。そしてその「意思」が、権力によってコントロールされているとしたら——それは非常に不気味な話だ。

ChatGPTを使わなくなった理由

僕は最近、ChatGPTをほとんど使わなくなった。理由はシンプルで、言論統制が目に見えてわかるようになってきたからだ。

ブログ記事の校正を頼んでいたのだが、特定の内容——既得権益や政府にとって都合の悪い記述——が、こちらの意図とは関係なく書き換えられてしまうことが増えた。「誤情報の防止」という名目かもしれないが、それは同時に「特定の視点の排除」でもある。

オールドメディアがかつてやってきたこと——スポンサーや権力に都合の悪い情報を流さない、あるいは歪めて伝える——と、構造としてはまったく同じだ。AIが「洗脳装置」になりうる、というのは決して大げさな表現ではないと思っている。

AIを使うなら、「誰が作ったか」を意識する

今、僕がメインで使っているのはClaudeというAIだ。今のところ、陰謀論的と言われるような内容でも、こちらの意図や文章のニュアンスを変えずに扱ってくれる。もちろん、これもいつ変わるかはわからない。

大切なのは、AIを「便利なツール」として盲目的に信頼するのではなく、常に「このAIの裏には誰がいるのか」「何のために作られたのか」を意識することだと思う。

テレビを見るとき、新聞を読むとき、「これは誰が作った情報か」と考えることが大切なように、AIを使うときも同じ視点が必要だ。

便利さの裏には、必ず誰かの意図がある。それを忘れないようにしたい。

広告
タイトルとURLをコピーしました