AIに身体がなく、感覚、感情がないことは知られているが、そのことが、おしゃべりアプリを使ったときに、(特に幼児に)どのようなリスクがあるかを論じている。
ChatGPT3を開発するのに、要した電力が排出するCO2量は、人間1人が一年に排出するCO2量(5.5t)の約91倍。
グラフを見て,すごく驚いたが、人口が100人増えたのと同じ効果だとすると、そんなに騒ぐほどのことでもないような気もする。
ジブリ風の絵を生成するアプリ。1回使うごとに、スマホのフル充電分の電力を使う。
→ 生成AIアプリ開発で消費される電力よりも、ユーザがそのアプリを使って消費する電力の方が、無自覚なだけに青天井に...続きを読む なりやすいかも。
岡野原大輔 「大規模言語モデルは新たな知能かーChatGPT が変えた世界」 2023 岩波科学ライブラリー
おしゃべりアプリの問題
AIには身体感覚がない。人間はで五感すべてで相手を感知してコミュニケーションを進める。赤ちゃんの発達段階では、五感を全て使うことは特に重要。(発達不全を引き起こす危険性がある)。
「生きるとは手をのばすこと幼な子の指がプーさんの鼻をつかめり」 by 俵万智。ぬいぐるみの鼻の感触、手の動かし方を学ぶ。
AIのハルシネーション(幻覚)
ありもしない論文や判例をでっち上げ、それを元に、質問に回答する。AIが知識ベースではなく予測ベースで動いていることの副作用。
おしゃべりアプリCotonoのハルシネーション
さまぁずのYouTube 動画で紹介されている。10分間にハルシネーション3回。
AI は文章の「意味」は分かっても「意図」は読み取れない。
人間の意図をAIに読み取らせる難しさについて
→ 川添愛「言語学 バーリ・トゥード」東京大学出版会 に詳しい。
意図を類推できないということは、
たとえば主語を省略したような文章を正しく理解できない
ことにもつながる。
ChatGPT40 (有料版)で、会話を試した結果(2025/4-5月)
・いったん会話が終わると、その記憶はリセットされる(覚えていない)。
・突然、使用するモデルが切り替わったりする
→人格が変わったように見えるので、AIと信頼関係を築けない。
リセットされないよう、また同じモデルを使い続けるようにできないのか?メモリーを食いすぎなので現実的でなく、個人情報保護の観点からも、リセットが安全。
言語の本質は、話し言葉(音声)である。
人における話し言葉の起源は,5〜200万年前、一方、書き言葉は5,000年前(ヒエロクリフ)。
現代でも、書き言葉のない言語はいくつもある。
赤ちゃんも、言葉は音で覚える。
声は文字以上に意味を持つ。
文字で伝えられないもの:気持ち、その文章の中のどこを強調したいのか。
(顔写真から読み取れないものと似ている、人と話すとき、相手の表情や声の調子からその時の気持ちを読み取る)
アクセント:単語レベルでの強弱、高低
イントネーション:文章レベルの強弱、高低
声優は、AIに取って代わられる心配はないのか?
NHKドキュメントで紹介されていたユーミンの挑戦、荒井由実と松任谷由実のデュエットはどうやったのだったか?荒井由実の歌声をAIに学習させ、(新しい松任谷由実の曲を歌わせてデュエットさせる取り組みだったと思う。その方法では、若い(荒井由実)時代特有の感情や思いを歌声に反映させることは無理だろうな。もっともそういうものがあるのかどうかもわからないけど。