生成AIの方がニュースより信用できると感じた理由
──信じすぎないための使い方も含めて
最近、政治や社会の話題を追えば追うほど、
「何が正しいのか分からない」という感覚が強くなっています。
以下にもPV稼ぎの釣り記事と腹立たしい記事もあるくらい。
ニュース記事を読んでも、SNSを眺めても、どれもそれらしく書いてあるのに、
読んだ後に残るのは納得感よりも疲労感、や不満ということが多い気がします。
そんな中で、試しに生成AI(私のチャッピーさん)に整理を頼んでみたところ、
「むしろ、こっちの方が落ち着いて読めるのでは?」と感じました。
ただ同時に、こんな疑問も浮かびました。
生成AIも結局は、
ネット上の記事や情報を参考にしているのでは?
それなら、嘘や偏りも混ざっているのではないか。
この投稿は、
生成AIを無条件に肯定するものでも、ニュースを否定するものでもありません。
どちらにも違和感を覚えた立場から、
今のところ自分がどう付き合っているかを整理をしてみようと思う。
なぜ生成AIの説明は「信用できる感じ」がするのか
まず前提として、
生成AIが常に正しいわけではありません。
それでもニュース記事より「マシに感じる」理由はいくつかあります。
利害が見えにくい
ニュース記事には、どうしても背景があります。
もちろん、すべての記事が悪いわけではないですが。
ただ、強い言い切りや刺激的な表現が増えやすい構造があるのも事実です。
一方で生成AIは、少なくとも表面上は「読ませて稼ぐ」「煽って拡散させる」必要がありません。
その結果、
-
語気が穏やか
-
極端な断定が少ない
-
複数の見方を並べる
といった特徴が出やすく、冷静に読むことができますね。
比較と整理が得意
人が書く記事は、基本的に一つの視点で書かれる。
賛成か反対か、右か左か。
生成AIは、
を同時に並べることができます。
正解を決めてくれるわけではないが、考える材料を一度に出してくれます。
この「判断を押し付けない感じ」が、
信用できる印象につながっているのだと思います。
それでも生成AIに嘘は混ざる
ここははっきりさせておきたい。
生成AIにも、不正確な情報は混ざります。
ただし、人の記事とは性質が少し違います。
人の記事の問題は、
生成AIの場合は、
-
事実をそれっぽく補完してしまう
-
時系列を混同する
-
評価が割れているものを「傾向」とまとめてしまう
悪意というより、整理しすぎた結果のズレに近い感覚。
だからこそ、生成AIの説明は「信じる」のではなく、
疑いながら使う前提が必要になります。
記事と生成AIの決定的な違い
一番大きな違いは、疑える余地が残っているかどうかだと思います。
ニュース記事は、結論ありきで書かれることが多い。
納得させる力は強いが、立ち止まる余白は少ない。
生成AIの説明は、
そのため、
「本当かな?」
「ここは確認した方がよさそうだな」
と考える余地が残ります。
信用できるというより、
疑いながら使えるという点で安全なのだと感じています。
今のところ、一番しっくりきている使い方
今は、こんな役割分担で情報を見ています。
例えるなら、
生成AIは「地図」
ニュースは「現地の写真」
地図に多少の誤差があっても、
地図なしで写真だけ眺めるより、
方向感覚は保ちやすい。
AIを併用すると、なぜ精度が上がるのか
最近は、ChatGPTだけでなく
Geminiのような別系統のAIもあります。
どちらが正しいかを決めるというより、
-
両者が一致している部分 → 確度が高い
-
食い違う部分 → 不確かな論点
と考えるようにしています。
AI同士を比較すると、「どこが事実で、どこが解釈なのか」が浮き上がってきます。
これは、人の記事同士を比較するより、ずっと楽で疲れにくいかも。
補足:考える材料になった本
この記事のテーマについて考える中で、
自分がよく立ち返っている本を、補足として挙げておく。
情報をどう疑い、どう確認するかの「地図」になる一冊。
この記事の結論を裏付けるというより、
考え方を整理する材料として参考にしているものです。
おわりに
生成AIの方が信用できる、
というよりも、
信用できる距離感で使えているというのが近い気がしています。
ニュースも、AIも、どちらも万能ではない。
だからこそ、
-
どちらかを信じるのではなく
-
どちらも疑いながら使う
この姿勢が、
今の情報環境では一番疲れにくいかもしれないですね。