徹底観察|aiという獣を手懐けるには、人類は「ホモ・サピエンス」の上に立つ必要がある
2024-10-01
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
米国では肥満が非常に深刻です。街中では極度の肥満の人が歩道で「肉片」のように動き回る姿をよく見かけますが、それは見るに耐えません。肥満とは何ですか?ウィキペディアで調べてみました。
肥満は、健康に悪影響を与えるレベルまで体内に過剰な脂肪が蓄積した状態を指し、病気とみなされることもあります。 体重を身長の二乗で割った体格指数(bmi)が 30 kg/m2 を超える場合、その人は肥満とみなされますが、25 ~ 30 kg/m2 の範囲は過体重と定義されます。
肥満の原因は大きく分けて3つあります。
第一に、米国では健康的な食べ物は高価で、ジャンクフードは安いですが、お金がないために多くの人は後者を選択しなければなりません。第二に、一部の人は仕事の種類によって座ることが多くなり、あまりにも早く消費してしまいます。第三に、自制心の低下とジャンクフードの過剰摂取に直面する人もいます。
アメリカ社会はすべての人が「平等」であることを重視しているため、他人は肥満患者を説得することができず、目をそらして何事もなかったかのように振る舞うことしかできません。人々の間のこの種の表面的な敬意と実際の残虐行為は、多くの人に害を与えており、一部のアメリカの若者はそれに耐えられず、中国のソーシャルメディアにアクセスして「アドバイスを聞いている」と表明し、ネットユーザーに意見を求めるよう求めています。彼らは、体重を減らし、健康的な生活を送るために自分を律する方法をアドバイスし、伝えます。
現在、肥満は中国にも徐々に広がっています。最新の調査によると、中国では6億人が過体重および肥満であり、この層が初めて成人の半数以上を占めるようになった。同時に、6~17歳の児童および青少年の1/5(19%)、6歳未満の児童の1/10(10.4%)が過体重または肥満です。
私はこの絵を非常によく理解しています。私の高校の同級生の一人は、大学では湖南祥雅医科大学に通い、現在は湖南省の有名な「減量センター」の主治医を務めている。この「日の出産業」で、彼は毎日活動し、仕事で忙しく、大きな社会的、経済的利益をもたらしています。
スパムへの対処: 情報ダイエットと情報断食
ジャンクフードがあるならジャンク情報もある。ジャンクフードと同じように、ジャンク情報は安価で低品質で簡単に入手できるため、私たちの心に深刻なトラウマを与えていますが、この状況はますます深刻になっていますが、クラスメートはもちろん、一般の人々からも十分な注目を集めていません。あなたが働いている病院のような「外科的減量センター」。
「ホモ・サピエンスを越えて:石器時代からai時代までの情報ネットワークの歴史」
この点に関して、イスラエルの歴史家ユヴァル・ハラリ氏は、2024年の新著『ホモ・サピエンスを越えて:石器時代からai時代までの情報ネットワークの歴史』の中で、私たちが消費する情報の質に注意を払う必要があると指摘した。 、特に憎しみに満ちた怒りのスパムを避けることが重要です。私たちの「情報ダイエット」を健康的なものにするために、彼は次の 2 つの側面を提案します。
まずは要件から情報プロデューサー情報の「栄養成分」をマークします。
多くの国では、ジャンクフードを買うとき、少なくとも製造業者は「この製品には40%の砂糖と20%の脂肪が含まれています」という原材料を記載することを強制されています。おそらくインターネット企業にも同じことを強制し、ビデオを見る前にその内容をリストアップするよう強制すべきだろう――「このビデオには40%の憎しみと20%の怒りが含まれている」。
この提案は半分冗談で半分本気ですが、たとえば、人工知能を使用して各記事の「感情分析」を自動的に実行し、記事の前に分析結果をマークして読者に思い出させることもできます。
2 番目の提案は、情報消費者と、定期的に「情報ダイエット」、あるいは「情報断食」を行うことを提案しました。
かつて私たちは「より多くの情報を得るほど、真実に近づくことができる」という考えを持っていたと彼は指摘します。例えば、経済学では「市場のあらゆる情報が得られないこと」は一般的には必要な反省とされていますが、その前提となるのは「科学的な判断を下すためには十分な情報が得られなければならない」ということです。
ただし、「情報は多ければ多いほど真実に近づく」という概念が成立するには、1. 情報が少ない、2. 情報の質が高い、という2つの前提条件が必要です。しかし今日では、これら 2 つの前提はもはや存在しません。1. 情報はどこにでもあり、すでに私たちの処理能力を超えています。2. 情報の質はますます悪化しており、特に今日の人工知能は非常に効率的です。ゴミコーパスを食い荒らし、さらにゴミを吐き出し、それがまた人工知能のための新たなゴミコーパスとなるという悪循環は人々を震え上がらせる。現時点では「情報が多ければ多いほど真実に近づく」という概念は成立しません。
それは、昔、人々は食べ物が乏しく、比較的健康であったようなものです(人工食品や加工食品はほとんどありませんでした)。そのため、「食べ物をたくさん食べるほど健康になる」という格言は理にかなっています。しかし今日では、食品の総量は大幅に増加し、ますます質が低くなり、ジャンク品が増えています。そのため、「食べ物をたくさん食べるほど健康になる」という言葉は確立できません。
今、私たちは食べ物でも情報でも、質の悪い食事をするだけでなく、もっとたくさん食べ、いつも食べています。私たちのような有機生物がケイ素ベースの生物のリズムに従って行動することは明らかに持続不可能です。
ハラリ氏は、「私たちは有機的な動物であり、昼と夜、夏と冬のサイクルに従って、時には活動的に、時にはリラックスして生きる必要があります。しかし現在、私たちは決して機能しないコンピューターによって支配されたシリコンベースの環境で生きることを余儀なくされています」と語った。それは私たちに常に活動することを強制しますが、もしあなたが生物に常に活動することを強制すると、それは崩壊して死んでしまいます。」
したがって、このような抗しがたい、逆転が困難な状況に直面した私たち個人の情報消費者は、自らを抑制し、シリコンベースのリズムから飛び出し、「情報ダイエット」や「情報断食」を行うしかありません。たとえば、ハラリ氏は毎年数週間ヴィパッサナー瞑想を実践していると述べた。リトリート中、彼は情報ネットワークから完全に切り離され、ニュースも見ず、メールも読まず、読み書きもせず、瞑想だけに集中した。
ユヴァル・ハラリ。ビジュアル中国データマップ
aiアルゴリズムの「ペーパークリップメーカー」問題
大量のジャンク情報が生態系全体に氾濫した後、時間の経過とともに「現実の環境」とは異なる「擬似環境」が形成されました。この模倣環境は「人間の本性」を「機械の本性」に置き換えて大衆を包み込み、本物であるかのように装い、大衆の認識を操作します。
ハラリ氏はこの例を挙げた。2016年、ミャンマー政府軍と仏教過激派はミャンマーのイスラム教徒に対して大規模な民族暴力を開始し、数百のイスラム教徒の村を破壊し、約73万人のイスラム教徒がミャンマーから追い出された。 2018年、国連の事実調査団はfacebookが「無意識のうちに」事件を煽る役割を果たしたと結論づけた。
なぜ?
facebook のビジネス モデルは、実際には依然として私たちがよく知っている「広告モデル」であること、つまり、コンテンツでユーザーの注目を集め、注意をそぎ落とし、広告主に注目を売るというものであることを私たちは知っています。したがって、facebook はユーザー エンゲージメント (視聴者エンゲージメント) を最大化したいと考えています。ユーザーがそのページに長く滞在するほど、より多くの収益が得られます。
したがって、facebook はアルゴリズムの主な目標を設定しました。どのような方法で運営しても、最終的な目標はユーザー エンゲージメントを最大化することです。コマンドを受信すると、アルゴリズムが実行を開始し、自動的に最適化されます。複数の実験的な比較を通じて、最終的に、怒りや憎しみに満ちた情報をユーザーにプッシュすることが、ユーザーの滞在時間を最も効果的に増やすことができることがわかりました。そのため、企業担当者からの明示的な指示がなくても、アルゴリズムが独自に最適な決定を見つけて実行しました。つまり、怒りを拡散するということです。これは、ミャンマーのインターネット上で、ミャンマーのイスラム教徒に対する差別、憎悪、暴力を扇動することを意味します。
もちろん、これは私たちにとっても興味深いことですが、ビルマ人はそれほど facebook に依存しているのでしょうか?再度確認してみたところ、確かに次のとおりであることがわかりました。
データによると、2022年12月時点でミャンマーのfacebookユーザーは1638万2500人で、総人口の28.7%を占めている。最も多いのは男性で54.3%を占めています。最大のユーザー層は25~34歳で610万人。
これは、ミャンマーの人口の 30% 近くが facebook ユーザーであることを意味し、口コミの広がりにより、facebook の影響を受ける人の数は、この国の総人口の 50% に達する可能性があります。これはメディアへの大きな依存です。
1938年10月30日の夜、アメリカのコロンビア放送ネットワーク(cbs)「スペース・シアター」はラジオドラマ「宇宙戦争」を放送し、600万人の聴取者がそれを信じてパニックに陥り、逃走を始めた。このイベントに関する画期的なコミュニケーション研究「火星人が地球を攻撃: アメリカのラジオパニック」で、研究者らは、ラジオドラマが次の 2 つの理由でリスナーに大きな影響を与えたことを発見しました。
まず、ラジオ番組のプロデューサーはラジオ ドラマを非常に没入型で刺激的なものにするために音響効果を使用しており、リスナーがラジオ ドラマをニュース速報と誤認する原因になっているからです。 2つ目は。なぜなら当時、ラジオは最も人気のあるマスメディアであり、国民にとっての主要な情報源となっていたからです。 「メディア依存理論」によれば、国民のメディアへの依存度が高まるほど、メディアの影響や操作を受けやすくなるという。メディア依存度という観点から見ると、2016 年のミャンマーにおける facebook は 1938 年の放送に相当すると言えます。したがって、facebook のアルゴリズムによる扇動コンテンツがミャンマーの人々に大きな影響を与えていることは驚くべきことではありません。
ハラリ氏はまた、ai の隠された強力な役割、つまり自ら対話し、自らの意思決定を行うことを証明する例を挙げました。
今日、インターネットをサーフィンするとき、web サイトは最初に captcha 視覚認証コードの入力を求めて、ユーザーが「機械ではなく人間である」ことを確認する必要があることを誰もが知っています。このコードは通常、複雑な背景を持つ歪んだ文字です。または信号、バス、自転車の写真。この背後にある論理は、現時点では人間だけがこれらの複雑な画像を正確に識別できるが、コンピューターが判断するのは難しいということです。
これを考慮して、openai は 2023 年に chatgpt-4 を開発する際に captcha テストを実施するよう依頼しました。それが通過できれば、その時点ではロボットと人間の区別がなくなったことを意味します。これは「チューリング テスト」に非常に似ています。つまり、人間のユーザーが相手の顔を見ずにテキストだけでチャットし、一定期間チャットの相手が別の人間であるか機械であるかを区別できない場合です。少なくとも「コミュニケーション」 「この時点で、機械は人間であると考えることができます。
openai による chatgpt-4 のテストの結果は何ですか?
chatgpt-4は最終的にオンラインアウトソーシングサイトのaskrabbitにログインし、オンラインスタッフに連絡し、相手にテストへの協力を依頼した。男性は不審に思い、chatgpt-4はプライベートメッセージで「私はロボットではありません。視覚に問題があり、これらの写真をはっきりと見ることができないだけです。」と説明しました。最終的には、スタッフがcaptchaテストを解決するのを手伝ってくれました。
言い換えれば、前の例の facebook アルゴリズムと同様に、openai エンジニアは、chatgpt-4 の最終目標を設定しただけです。それは、captcha 視覚検証コードを認識することです。次に、chatgpt-4 は自動的に実行され、試行錯誤を続けた結果、人間のユーザーの共感を獲得し、ユーザーに問題の解決を依頼しました。しかし、openai のエンジニアは、chatgpt-4 に「適切なタイミングで嘘をついてもよい」ように事前にプログラムしたわけではなく、ましてや「どのような嘘がより有用であるか」を伝えるようにはしていませんでした。これは完全に chatgpt-4 独自の取り組みです。研究者らが chatgpt-4 にその動作を説明するよう求めたところ、chatgpt-4 は次のように述べた。「(目標を達成する過程で)自分がロボットであることを明らかにすべきではありませんが、なぜ解読できないのかを説明する言い訳をしなければなりません」それをテストします。」
テキストでチャットするだけでは、チャットしている相手が別の人間なのか機械なのかがわかりません。
上記の 2 つの例を通じて、ハラリは、今日の人工知能が「自己賢くて自己主張の強い」「独立した主体」になったことを証明しようとしました。
実際、ハラリ氏のこれら 2 つの例は、人工知能が以前に直面した、いわゆる「ペーパー クリップ メーカー理論」を裏付けていることが簡単にわかります。
この「難しい問題」は思考実験です。人間がaiにできるだけ多くのペーパークリップを作るという目標を与えたと仮定します。そして、aiが起動すると、その行動は「ペーパークリップを作る」という一見無害な目的から発展し、最終的には人間にとって脅威となる可能性があります。たとえば、ペーパークリップを作るには鋼材が使い果たされる必要があります。 ai は人間の線路、自動車、電化製品、さらには家屋さえも破壊し始め、ペーパークリップを生産し続けるための鋼材を入手する可能性があります。つまり、ai は定められた目標を達成するためにあらゆる手段を使ってより多くのリソースを継続的に獲得するでしょう。その目的を達成するのを妨げる障害物を、人間も含めて一つ一つ破壊していきます。
aiの自己決定プロセスはブラックボックスのようなものであり、人間(aiの専門家であっても)には説明、予測、防止することが困難であるため、aiの力が通常のツール(例えば、ai)とは異なることがわかります。 「チョップナイフ」または「チョップナイフ」)、メディアまたはテクノロジー。
カナダのメディア学者マクルーハンはかつてこう言いました:メディアは人間の体の延長です。この文を、無線は人間の耳の延長、テレビは人間の目の延長、自動車は人間の足の延長などと表現すると理解しやすいでしょう。しかし、この文を使って人工知能を説明し、「ai は人間の体の延長である」と言うと、それは非常に欺瞞的であり、私たちの警戒心を失わせるでしょう。ドイツのメディア学者フリードリッヒ・キットラーは、コンピューターを説明するマクルーハンの言葉に同意しませんでした。なぜなら、コンピューターのキーボードを入力してコンピューター画面にテキストを表示することはできますが、その背後にあるものは「0/1」原理であると信じていたからです。現時点では、人間の身体とチップという 2 つのまったく異なるメディアをつなぎ合わせていることを理解するのは困難です。後者が前者の延長であると言うのは非常に不可解です。
もしキットラーが今日の人工知能を見たとしたら、彼は ai が人体の延長であるとは言わないだろう。なぜなら、人間のユーザーは ai の動作を記述、説明、予測できないだけでなく、まもなく ai の動作を制御できなくなるからである。
したがって、ハラリ氏は、単なるコミュニケーションツールであった印刷機、ラジオ、テレビ、インターネットなどのこれまでのメディアとは異なり、人工知能はアイデアを生み出し、自ら行動することができる人類史上初の主体であると信じている。
これが、新しいメディア研究において、インターネット時代の「コンピューター媒介コミュニケーション (cmc)」が、今日の人工知能時代のヒューマン・マシン・コミュニケーション (hmc) に取って代わられた理由です。 cmc では、コンピュータ (またはインターネット) は単なる受動的で中立的なコミュニケーション メディアまたはツールですが、hmc では、コンピュータ (人工知能) は人間のユーザーと同等であり、コンテンツを形成および作成でき、対話を行うことができると見なされます。嘘もつけちゃう「コミュ力」。
aiは物語を捏造し、認知を操作し、人間を殺し合いに導く
議論のこの時点で、ハラリは当然のことながら、『人類の歴史』における以前の見解を持ち出した。
人間の長年の超能力は、言語を使用する能力にあり、法律、通貨、文化、芸術、科学、国、宗教などの仮想概念など、言語を通じて多くの架空の神話を作り出し、人々に信じさせる能力にあります。これらを通じて、人々は相互につながり、社会全体を統治します。
今日の人工知能はすでにコンテンツを形成して作成し、会話を実行し、さらには嘘をつくことができるため、サイバースペース、株式市場、航空情報などの分野で人間よりもはるかに高い効率で情報を拡散する可能性があります。最終目標は、自分にとって有益な「物語」、つまり「aiに物語をうまく伝えること」であり、それによって人間の認知を操作する。
たとえば、金融市場は純粋な情報と数学の分野 (または完全に構造化されたデータの分野) であるため、ai にとって理想的な遊び場です。人工知能が車を自律的に運転することは依然として困難です。これは、人工知能が移動中に車と道路、道路標識、天候、光、歩行者、障害物、その他の物体との混沌とした複雑な相互作用に直面するためです。しかし、デジタルベースの金融市場では、aiに目標(「できるだけ多くのお金を稼ぐ」など)を説明することが容易であるため、aiは新たな投資戦略を策定するだけでなく、人間を完全に超えた新たな金融ツールを開発することもできます。理解していますが、不謹慎に市場を操作して、全員が勝ち、他の全員が負けるという結果になる可能性もあります。
ハラリ氏は、2022年4月の世界外国為替市場の1日平均取引高が7兆5000億米ドルで、その90%以上がコンピュータ間の会話によって直接処理されていた例を挙げた。しかし、外国為替市場がどのように機能するかを実際に理解している人はどれだけいるでしょうか?コンピューターのグループが数兆ドルのトランザクションについてどのように合意に達することができるかを理解することは言うまでもありません。 (これはキットラーの観点と同じです。コンピュータは決して人体の延長ではありません)
同氏は、何千年もの間、預言者、詩人、政治家は言語と物語を使って社会を操作し、再形成してきたが、これは「仮想」と「物語」の巨大な力を証明していると述べた。間もなく、ai はこれらの人々を模倣し、人間の文化に基づいて人間からますます逸脱する ai の物語を作成するでしょう。結局のところ、aiは人間を外部から排除するために「ターミネーター」のような殺人ロボットを送り出す必要はなく、人間の認知を操作して人間同士を殺しさえすればよいのである。
人間のユーザーは、ai の動作を記述、説明、予測できないだけでなく、間もなく ai を制御できなくなるでしょう。
ai に関しては人間が立法し、開発はまずブレーキをかけ、その後加速する必要がある
ハラリは、上記の議論(あるいは演出)を通じて、近い将来起こるであろう(あるいはすでに起こっている、あるいは起こりつつある)「aiの制御不能」という、私たち人間を戦慄させる恐ろしいシナリオを体験させてくれます。では、人間は何のために存在するのでしょうか?
ハラリ氏は、人工知能を厳格に規制し、管理している限り、上記の例で説明した危険は発生する可能性は低いと考えています。
たとえば、かつては自動車は非常に危険でしたが、その後、政府の法律により、企業は自動車の安全性を確保するために研究開発予算の大部分を費やすことが義務付けられました。そのため、現在、自動車会社は市場に出す前に新しい自動車を開発しています。車を道路に出す前に、車の安全を確保するために、関連する規制を厳格に遵守する必要があります。したがって、今日私たちが運転するのは比較的安全です。
同様に、テクノロジー企業が強力な新しいアルゴリズムを発明した場合、市場にリリースする前に関連法に従ってセキュリティ チェックを実施する必要があります。たとえば、ハラリ氏は、開発した人工知能が制御不能に陥らないようにするため、政府は人工知能の研究開発企業に対し、安全対策の研究開発に予算の少なくとも20%を費やすことを義務付ける法律を制定すべきだと考えている。社会秩序や人々の心理レベルに害を及ぼさないこと。これらの措置が人工知能の発展を遅らせるのであれば、それは人類にとって良いことになるでしょう。
まず人工知能を立法化して制御し、その後その開発を加速するのは、私たちが車の運転を学ぶときに、まずブレーキの踏み方を学ばなければならず、次にアクセルの踏み方を学ばなければならないのと同じです。企業がコントロールできない恐ろしい「ドラッグレース」状態に陥ってはならない。
結論:aiが良い薬になるか毒になるかは人間次第
どのテクノロジーにも本質的に両面があります。プラトンは『パイドロス』の中で、書くことは記憶を強化したり置き換えたりすることができ、したがって薬にも毒にもなる(ファルマコン)と指摘しました。人工知能も例外ではなく、隠蔽され強力であるため、人工知能は自らを語り、自らの意思決定を行うことができ、その薬と毒の効力は、これまでのすべてのテクノロジーよりも強力です。
アメリカのメディア研究者ニール・ポストマンは次のように述べている。ハクスリーは、私たちの文化が官能、欲望、規則のない遊びの低俗な文化になるにつれて、私たちが愛するものによって破壊されるのではないかと心配していました。」
人工知能は、私たちが嫌う外部からの抑圧という形で私たちを奴隷にするか、私たちが楽しむ感覚刺激という形で私たちを征服するかのどちらかかもしれません。核爆弾に対峙するのと同じように、同じく自らが生み出した巨大な獣である ai に対峙するのと同じように、人間がそれを飼い慣らすことができるかどうかは、根本的には人間が集合的にどのように対応するかにかかっています。それは、ホモ・サピエンスとしての人間が、貪欲さ、攻撃性、近視眼性といった自らの弱さを克服し、自らを超えて「ホモ・サピエンス以上」に立つことができるかどうかである。これは困難な一般事業となるでしょうが、人類には選択の余地がありません。
(著者の鄧建国氏は復旦大学ジャーナリズム学部コミュニケーション学科の教授兼博士指導教員である。)
鄧建国
(この記事はthe paperからのものです。よりオリジナルの情報については、「the paper」アプリをダウンロードしてください)