2025年02月17日
AIが要約したニュース、その半分は間違いだらけだと判明 (BBC調べ)
1 名前:少考さん ★:2025/02/17(月) 12:46:57.45 ID:U5YBW/Xz9.net
https://www.gizmodo.jp/2025/02/ai-is-not-good-at-summarizing-the-news.html
2025.02.17 12:00
author R.Mitsubori
書き手と読み手、どちらもAIに翻弄されないで。
イギリスの公共放送機関BBCが、AIが要約したニュース記事を調査したところ、その多くに「重大な問題」が含まれていることが判明しました。
引用元
https://www.gizmodo.jp/2025/02/ai-is-not-good-at-summarizing-the-news.html
AIが要約したニュース、その半分は間違いだらけだと判明https://t.co/yIGqj3Usvm
— ギズモード・ジャパン(公式)@ 新刊『ギズモード・ジャパンのテック教室』2/4発売 (@gizmodojapan) February 17, 2025
2025.02.17 12:00
author R.Mitsubori
書き手と読み手、どちらもAIに翻弄されないで。
イギリスの公共放送機関BBCが、AIが要約したニュース記事を調査したところ、その多くに「重大な問題」が含まれていることが判明しました。
引用元
https://www.gizmodo.jp/2025/02/ai-is-not-good-at-summarizing-the-news.html
4: 名無しどんぶらこ 2025/02/17(月) 12:48:07.79 ID:k2nbbBti0
たまたま昨日やったけど、間違えてたな。
5: 名無しどんぶらこ 2025/02/17(月) 12:48:48.47 ID:wURQ00tc0
Googleのヤツはマジで邪魔だよな
7: 名無しどんぶらこ 2025/02/17(月) 12:49:06.18 ID:k2nbbBti0
何回かchatGPTに指摘したら、最終的に謝り出した。
8: 名無しどんぶらこ 2025/02/17(月) 12:49:09.38 ID:wAvkrSKc0
AIは嘘つきでパクリまくりで悪意に満ちている
9: 名無しどんぶらこ 2025/02/17(月) 12:49:16.50 ID:1E6ZCXdf0
フェイクニュース
11: 名無しどんぶらこ 2025/02/17(月) 12:49:26.03 ID:Fyh4+/4/0
Google検索で最初に出てくるAIのやめてほしい
12: 名無しどんぶらこ 2025/02/17(月) 12:49:34.92 ID:PWS/dsSi0
間違いに気付かなければ間違いじゃないんだから問題ないね
15: 名無しどんぶらこ 2025/02/17(月) 12:50:03.33 ID:rvP9ByVW0
BBCが調査したって時点でバイアスがかかってるしw
16: 名無しどんぶらこ 2025/02/17(月) 12:50:04.34 ID:H/RPGFrG0
AIが間違えたんじゃなくて間違えた情報入れりゃそうなるに決まってるだろ
22: 名無しどんぶらこ 2025/02/17(月) 12:51:00.22 ID:E9SB/kN50
流石にこれは駄目だろ
いつもスレに得意げにaiコピペを貼ってくる意識不明クソの立場がない…
いつもスレに得意げにaiコピペを貼ってくる意識不明クソの立場がない…
23: 名無しどんぶらこ 2025/02/17(月) 12:51:10.73 ID:CZ6GhyEF0
deepseekがないのはわざと?
24: 名無しどんぶらこ 2025/02/17(月) 12:51:17.86 ID:WLo+c/v70
ただし馬鹿には気づけない
25: 名無しどんぶらこ 2025/02/17(月) 12:51:19.49 ID:IliIvBZB0
AI「ホモ・サピエンスなんぞこの程度で十分」
26: 名無しどんぶらこ 2025/02/17(月) 12:51:26.65 ID:yqieDLO20
ミュージシャンが自分の曲についてAIに聞いてたら聞いたこともないタイトルをAIが言い出すやつ好き
27: 名無しどんぶらこ 2025/02/17(月) 12:51:28.13 ID:d3jJvVa70
オールドメディアも大差なかろ?
結局真実はいつもわからない
結局真実はいつもわからない
31: 名無しどんぶらこ 2025/02/17(月) 12:53:33.06 ID:Phot4IbA0
そりゃ間違いありませんでしたとなるとBBCは必要なくなるからな
33: 名無しどんぶらこ 2025/02/17(月) 12:53:50.62 ID:7Q5794ny0
AIに仕事奪われたくないやつが書いた記事
36: 警備員[Lv.19] 2025/02/17(月) 12:54:09.57 ID:bcs5JuYh0
ChatGPT等は対話で回答を導き出すもの
使い方を間違えている
使い方を間違えている
38: 警備員[Lv.4][新芽] 2025/02/17(月) 12:54:32.47 ID:beZY86OB0
Google検索で出てくるやつもウソばっか
39: 名無しどんぶらこ 2025/02/17(月) 12:54:39.10 ID:KDd4kpTT0
あなたは男前ですって言ったのは何だったの
46: 名無しどんぶらこ 2025/02/17(月) 12:56:03.29 ID:Y80cYBEm0
Googleが出してくるAIのやつとか嘘ばっかだよな
マジ勘弁して欲しいわ
マジ勘弁して欲しいわ
47: 名無しどんぶらこ 2025/02/17(月) 12:56:09.00 ID:8036llod0
ヤフコメの要約は中の人が何かしらやってるのか
51: 名無しどんぶらこ 2025/02/17(月) 12:57:17.42 ID:HCRcgMeY0
グーグルの一番初めに出てくるAIは誤字の記事拾ってくるしな
52: 名無しどんぶらこ 2025/02/17(月) 12:57:21.43 ID:1kIQi3Iz0
2月52日とか平気で言いそう
64: 名無しどんぶらこ 2025/02/17(月) 13:01:23.52 ID:KxiveT+q0
こんな当たり前の事すら「ええ〜っ!なんで間違えるの!?」みたいな反応する奴が多い不思議
66: 名無しどんぶらこ 2025/02/17(月) 13:01:42.41 ID:lPiSmUEs0
> 100件のニュース記事
元になった記事は正しいの?
元になった記事は正しいの?
70: 名無しどんぶらこ 2025/02/17(月) 13:02:54.16 ID:+gYwUcEb0
バカなAIにも理解できるようなわかりやすい記事を書けよ。
わざと誤解を与えるような印象操作ばかりする記者も悪い。
わざと誤解を与えるような印象操作ばかりする記者も悪い。
74: 名無しどんぶらこ 2025/02/17(月) 13:04:06.05 ID:NdXhzM/l0
学習データの真偽までAIに制御できるのかっていう
80: 名無しどんぶらこ 2025/02/17(月) 13:05:24.84 ID:Jt3H4Z0R0
知ってる
知らないことに関してもへーきで嘘を書くからなあいつら
知らないことに関してもへーきで嘘を書くからなあいつら
83: 名無しどんぶらこ 2025/02/17(月) 13:05:54.62 ID:MmceNqM70
AIは0か1かだから間違えるととんでもないことになる
86: 名無しどんぶらこ 2025/02/17(月) 13:06:30.66 ID:jdc52njI0
数兆円も注ぎ込んで文章のまとめすらできないとか
まあ自動運転もだけどwww
まあ自動運転もだけどwww
89: 名無しどんぶらこ 2025/02/17(月) 13:07:14.36 ID:wURQ00tc0
AIと名がつくものは胡散臭いものばっか
97: 名無しどんぶらこ 2025/02/17(月) 13:08:55.01 ID:ucBgm22/0
どんどん賢くなるからいーんだよ
98: 名無しどんぶらこ 2025/02/17(月) 13:08:58.29 ID:hS4NDnZz0
学習させて精度上げればいい
115: 名無しどんぶらこ 2025/02/17(月) 13:12:47.06 ID:WmZ0Xx2P0
わからんならわからんって表示すりゃいいのに、適当にそれっぽい事表示しよるからAIはダメ
119: 名無しどんぶらこ 2025/02/17(月) 13:13:25.17 ID:oFwHV++v0
元のニュースが間違いだらけなのでその結果
元スレ:https://ai.2ch.sc/test/read.cgi/newsplus/1739764017/0-
スポンサードリンク
この記事へのコメント
106. Posted by 2025年02月23日 23:33
今のAIのディープラーニング手法の基礎理論は80年代に開発されていて
当時はマシンの計算速度が遅すぎて使い物にならなかったのが最近になって当時の数億倍の速度になったので持て囃されているけれど
所詮は感情を持っていないのにintelligenceと扱うなみたいな事を開発者自身が言っていたな
当時はマシンの計算速度が遅すぎて使い物にならなかったのが最近になって当時の数億倍の速度になったので持て囃されているけれど
所詮は感情を持っていないのにintelligenceと扱うなみたいな事を開発者自身が言っていたな
105. Posted by 2025年02月23日 23:26
>>103
そいつ自身がAIの可能性ががが
そいつ自身がAIの可能性ががが
104. Posted by 2025年02月19日 14:54
要約じゃないけど普通の質問で間違った答えがでてきて指摘してAIが間違っていたことを認めたのに直後に同じ質問を繰り返すと同じ間違いが出てくるのをなんとかして
103. Posted by 2025年02月18日 21:12
ああ、もしかしてこの間、ファーストガンダムでコロニー落としはジオンの悪行ってなったのは跡付けとかアホ丸出しな事言って、ツッコミ受けても別作品の話しでしょうと更なるアホをさらしてた人って
AIにガンダム教えてもらってた可能性があるのか
AIにガンダム教えてもらってた可能性があるのか
102. Posted by 2025年02月18日 19:42
>>93
いつからAI開発されてたと思ってるの?
10年あれば多少はマシになるかもしれんが、実用には程遠いね
2年は論外と言ってもいい
いつからAI開発されてたと思ってるの?
10年あれば多少はマシになるかもしれんが、実用には程遠いね
2年は論外と言ってもいい
101. Posted by 2025年02月18日 14:40
>>100
発展途上とかじゃなくてそもそもの用途が違う
ChatGPTとかはあくまでそれっぽい文章を作り出す用途で
問題を解決したり何かを証明したりするのは別に開発しないといけない
いずれそれらと連携して回答を返してくれるようになるだろうけど
発展途上とかじゃなくてそもそもの用途が違う
ChatGPTとかはあくまでそれっぽい文章を作り出す用途で
問題を解決したり何かを証明したりするのは別に開発しないといけない
いずれそれらと連携して回答を返してくれるようになるだろうけど
100. Posted by 2025年02月18日 13:57
2種類までの数字にしか適用できない数学の定理を3種類の場合とAIに聞いてみたら、しれっと数字を1個付け加えただけの式でこうなりますと表示されて単純に発展途上だなと感じた
99. Posted by 2025年02月18日 13:04
見抜けとは言わないけど
少なくともAI要約だけで理解したような気になっちゃいかんよな
本文読むかどうかの判断材料程度のもの
少なくともAI要約だけで理解したような気になっちゃいかんよな
本文読むかどうかの判断材料程度のもの
98. Posted by 2025年02月18日 11:02
>>※90
ウソを見抜く方も進化したとして、騙す方も同時に進化していることを忘れてはいけない。所詮この世はキツネとタヌキの化かし合いなのだ。
ウソを見抜く方も進化したとして、騙す方も同時に進化していることを忘れてはいけない。所詮この世はキツネとタヌキの化かし合いなのだ。
97. Posted by あ 2025年02月18日 10:53
AIは知ったかぶりするから手強い
追求すると「すみません、そのアプリは存在しませんでした」とか抜かして謝れば良いと思ってる
新入社員かよ
追求すると「すみません、そのアプリは存在しませんでした」とか抜かして謝れば良いと思ってる
新入社員かよ
96. Posted by 2025年02月18日 10:32
>>76
ITウザっ!
ITウザっ!
95. Posted by 2025年02月18日 10:27
>>1
全てがネット民やヒキニートレベル
全てがネット民やヒキニートレベル
94. Posted by 2025年02月18日 09:49
BBCの主張はもっともなんだが、USAIDの案件がAIを用いた資金追跡システムで発覚したのでタイミング悪いなと
93. Posted by 2025年02月18日 09:16
>>81
発展速度的に2年だな
10年じゃまるっきり別物レベルになる
発展速度的に2年だな
10年じゃまるっきり別物レベルになる
92. Posted by 2025年02月18日 09:14
>>31
お人形あそびたのちいね
お人形あそびたのちいね
91. Posted by 2025年02月18日 09:13
>>8
1のソース読んだ?
1のソース読んだ?
90. Posted by 何を今さら? 2025年02月18日 09:08
まだ創成期やで
人だって嘘付きがいるし、そのデマに騙される人がいるやん
人でも1人だと間違いに気付かないことがある
今のAIは1つのAIモデルがある学習デ一タに基づき正解の可能が高い結論出してる
そのうち複数のAlモデルで精査し結論出したりファクトチェックもするようになるよ
人だって嘘付きがいるし、そのデマに騙される人がいるやん
人でも1人だと間違いに気付かないことがある
今のAIは1つのAIモデルがある学習デ一タに基づき正解の可能が高い結論出してる
そのうち複数のAlモデルで精査し結論出したりファクトチェックもするようになるよ
89. Posted by 2025年02月18日 08:45
>>7
品質にもよるが、それ以前に「目の前にネタ元が提示されていても要約に失敗するなら原文無しでの出力がアテにできるのか」っていうね。
収集したデータベースじゃなくて言語や理論の部分に問題がある。
正解文が学習元に腐るほどあればそれを継ぎ接ぎしても正解がそれなりに出力されるが、それがない場合は論理的な構造を抽出して変換・出力しなきゃいけない。つまり、やっぱり継ぎ接ぎコラから脱却出来てないってのが今のAIなんだろう。
まぁ今の技術から強いAIがポロッと生まれても制御のしようが無いくて叛乱待ったなしだし成功しないに越したコタないんだけどな。ウォーターフォール否定論など実施適用してみてから品質確認みたいなムーブが最近多いけど、その流れでAIが運良く(悪く)進歩しちゃったら地獄でしかない。
品質にもよるが、それ以前に「目の前にネタ元が提示されていても要約に失敗するなら原文無しでの出力がアテにできるのか」っていうね。
収集したデータベースじゃなくて言語や理論の部分に問題がある。
正解文が学習元に腐るほどあればそれを継ぎ接ぎしても正解がそれなりに出力されるが、それがない場合は論理的な構造を抽出して変換・出力しなきゃいけない。つまり、やっぱり継ぎ接ぎコラから脱却出来てないってのが今のAIなんだろう。
まぁ今の技術から強いAIがポロッと生まれても制御のしようが無いくて叛乱待ったなしだし成功しないに越したコタないんだけどな。ウォーターフォール否定論など実施適用してみてから品質確認みたいなムーブが最近多いけど、その流れでAIが運良く(悪く)進歩しちゃったら地獄でしかない。
88. Posted by 2025年02月18日 08:33
情報の真意そっちのけで書き込みの多い情報を取り出してるんだからそうなるよな
嘘も広まれば真実だを体現してるAI
嘘も広まれば真実だを体現してるAI
87. Posted by 2025年02月18日 08:08
AIって嘘ばっかりつくよね。違うだろって言ったら違いましたとか平気で言ってくるしね。指摘すると謝るし。せめて嘘つかないでほしいね。わかりませんって言ってほしい。
86. Posted by 2025年02月18日 08:08
>>18
もうやることなくて暇なんだろ
もうやることなくて暇なんだろ
85. Posted by 2025年02月18日 08:06
あーやっぱ間違いも放置してるのか
検索時に出るAIのなんとかって文章で
事実と全く正反対のこと書いてあるのを最近見たな
検索時に出るAIのなんとかって文章で
事実と全く正反対のこと書いてあるのを最近見たな
84. Posted by 2025年02月18日 07:54
忖度しないから都合の悪い連中がそう言ってるだけってオチは?
83. Posted by 2025年02月18日 07:53
間違いを指摘したら無限ループになった
人間に近づいている
人間に近づいている
82. Posted by 2025年02月18日 07:16
>>73
なんかそれ機械翻訳とかじゃねーかな
バイトだろうがそんな馬鹿いるわけない、とか思うけど、お前みたいな素直な馬鹿もいるしな……世界はネットのおかげで広くなったわ。世の中に馬鹿がこんないるんだって気付かされる
なんかそれ機械翻訳とかじゃねーかな
バイトだろうがそんな馬鹿いるわけない、とか思うけど、お前みたいな素直な馬鹿もいるしな……世界はネットのおかげで広くなったわ。世の中に馬鹿がこんないるんだって気付かされる
81. Posted by 2025年02月18日 07:12
>>78
勿論そうだろうが、今んとこダメってこと。
スマホの初期とかもそうだしな
十年もすりゃよくなるさ
勿論そうだろうが、今んとこダメってこと。
スマホの初期とかもそうだしな
十年もすりゃよくなるさ
80. Posted by 2025年02月18日 07:11
>>68
馬鹿は使えるところと使えないところを判断出来ずに断定しちゃうのが問題なだけ
お前みたいに
馬鹿は使えるところと使えないところを判断出来ずに断定しちゃうのが問題なだけ
お前みたいに
79. Posted by あ 2025年02月18日 06:30
AIに推定、仮定、条件有、誤情報を事実として使ってはならないという制限は存在しないから、ユーザーが使用する際は全部何処かの政治答弁みたいに疑って検証しなければならないし、損失が発生した場合は使用者が全責任を追う。
78. Posted by 2025年02月18日 04:54
どんどん進化しているんだから
現時点では不十分でもあっという間に改善されるでしょ
現時点では不十分でもあっという間に改善されるでしょ
77. Posted by な 2025年02月18日 03:35
>>13
とにかく面倒なことになっているので言いますが、結局の所、あなたの油汗オイルは「あなただけのもの」です。
病気を撒き散らさないでください
とにかく面倒なことになっているので言いますが、結局の所、あなたの油汗オイルは「あなただけのもの」です。
病気を撒き散らさないでください
76. Posted by な 2025年02月18日 03:35
>>6
とにかく面倒なことになっているので言いますが、結局の所、あなたの油汗オイルは「あなただけのもの」です。
病気を撒き散らさないでください
とにかく面倒なことになっているので言いますが、結局の所、あなたの油汗オイルは「あなただけのもの」です。
病気を撒き散らさないでください
75. Posted by な 2025年02月18日 03:34
>>2
とにかく面倒なことになっているので言いますが、結局の所、あなたの油汗オイルは「あなただけのもの」です。
病気を撒き散らさないでください
とにかく面倒なことになっているので言いますが、結局の所、あなたの油汗オイルは「あなただけのもの」です。
病気を撒き散らさないでください
74. Posted by . 2025年02月18日 02:01
人権考慮しなくていい*
国人扱いでいいよ
国人扱いでいいよ
73. Posted by 2025年02月18日 01:25
人間がする要約だっていい加減だけどな。
日本政治の記事を要約してるのに、総理大臣のことを大統領って書いてあるの見て呆れた事あるわ。
学生のアルバイトか知らんが、日本に大統領がいるのかどうかも知らない奴がいるんだよな。
日本政治の記事を要約してるのに、総理大臣のことを大統領って書いてあるの見て呆れた事あるわ。
学生のアルバイトか知らんが、日本に大統領がいるのかどうかも知らない奴がいるんだよな。
71. Posted by 2025年02月18日 00:34
>>55
いやいや、コメ欄のクズニートと同じとかAIに失礼だろ
いやいや、コメ欄のクズニートと同じとかAIに失礼だろ
70. Posted by 2025年02月18日 00:31
半分合ってるなら上出来じゃん
現状のエセAIは内容を理解して要約してるわけじゃないんだぞ?
現状のエセAIは内容を理解して要約してるわけじゃないんだぞ?
69. Posted by 2025年02月17日 23:58
なんでもともと記事にある日付とかのデータを間違えるのか。これは要約を作るのに記事以外の情報を使っているな…?ってことはそれは要約ではないんでは?
68. Posted by 2025年02月17日 23:51
AI使用して課題提出して、AIで評価して点数付けるのが今時の大学
技術系と文系で能力の差は開く一方
技術系と文系で能力の差は開く一方
67. Posted by 2025年02月17日 23:50
ネット上に漂う莫大なゴミ情報も分からず生成に混ぜてくるからどんどん精度が下がって行くって言われてたっけ
まだ解決してないんだな
まだ解決してないんだな
66. Posted by 2025年02月17日 23:24
AI要約は相反する情報を平気で混ぜてくるから使えない。
65. Posted by 2025年02月17日 23:19
こたつ記事を学習してるんじゃないの?
64. Posted by 2025年02月17日 23:04
yahooのコメント要約も役に立っていないのにトップに持ってくるのはやめてほしい
結局ニュースも、それに対するコメント要約もダメ
何だったらまともなんだ?
・・・もちろんニュースになるような事件を起こす人間が一番ダメだが
結局ニュースも、それに対するコメント要約もダメ
何だったらまともなんだ?
・・・もちろんニュースになるような事件を起こす人間が一番ダメだが
63. Posted by hknmst 2025年02月17日 23:04
Perplexityはソースのリンクをきちんとはってくれるからすきだが、とんでもな個人のブログとかからも情報をひっぱってくるので、確認は必要。
62. Posted by 2025年02月17日 23:03
日本の財政を聞いたら100%間違うのだから50%ぐらいええやん
61. Posted by 2025年02月17日 23:01
いろんなAIを何百時間もつかいたおしたすえの結論:AIに自分がしらないfactualなことをたずねてこたえをうのみにしてはいけない。かならずそのこたえのうらをとること。AIにたのんでいいのはむしろcreativeなこと。brainstormingも得意だ。無能な人間と気をつかいながら議論するよりよっぽどいいアイデアがうまれる。
60. Posted by あ 2025年02月17日 22:49
日本マスゴミも同レベルだろ。半分以上が嘘かもな。
59. Posted by 2025年02月17日 22:33
AIが書いたと思われる文章ばかりを大量に掲載しているサイトを見つけたことがある
オレは明らかに間違いだとわかったからよかったが
そういうサイトもAIが学習する元ネタになる
ネットが真偽が判別できない情報で溢れるようになるのはそんなに遠くないと思う
オレは明らかに間違いだとわかったからよかったが
そういうサイトもAIが学習する元ネタになる
ネットが真偽が判別できない情報で溢れるようになるのはそんなに遠くないと思う
58. Posted by 2025年02月17日 22:29
最近起きた事に関する質問をするとよく間違える印象やわ。
たぶん情報が錯そうしてる段階の知事ネタには弱いんだろうなGPT君は。
逆に答えが明確に出てるような問題なら信用度高いんちゃう?
ようは人間側がGPTを上手に使うしかないってことやね
たぶん情報が錯そうしてる段階の知事ネタには弱いんだろうなGPT君は。
逆に答えが明確に出てるような問題なら信用度高いんちゃう?
ようは人間側がGPTを上手に使うしかないってことやね
57. Posted by 2025年02月17日 22:19
まるで人間が書くのは正しい記事のみみたいな言い方だな
56. Posted by 2025年02月17日 22:15
>>2
お前がいつもやってる事だぞ。情弱だから精査出来ずにそのまま貼って恥を晒してるんだけどさw
お前がいつもやってる事だぞ。情弱だから精査出来ずにそのまま貼って恥を晒してるんだけどさw
55. Posted by 2025年02月17日 22:14
AIで要約なんてタイトルだけ見てギャーギャー騒いで知ったかぶりするお前らと全く同じだからな?
そもそも謝らないし知りませんとも言わないからね、まさにお前ら
そもそも謝らないし知りませんとも言わないからね、まさにお前ら
54. Posted by 2025年02月17日 22:13
画像生成AIで人物作った時、ちょくちょく奇形が生み出されたじゃん?
あれと文章の生成も一緒。
あれと文章の生成も一緒。
53. Posted by 2025年02月17日 22:12
いや、何を今更???
52. Posted by 2025年02月17日 22:03
Googleのも間違い多すぎるんだけどアレを信じる人もいるんだろうな
そのうちAIの間違った情報がネットに溢れてそれを更に学習して段々強固な嘘になっていきそう
そのうちAIの間違った情報がネットに溢れてそれを更に学習して段々強固な嘘になっていきそう
51. Posted by 2025年02月17日 21:59
そらまぁ馬鹿を目くらまして公金貰う為の事業ですし(笑)
50. Posted by 2025年02月17日 21:56
>Googleのヤツはマジで邪魔だよな
マジでこれ
ググル先生はウソしか教えないし検索結果は10件ずつしか見れないし、ただのアホになり下がった
マジでこれ
ググル先生はウソしか教えないし検索結果は10件ずつしか見れないし、ただのアホになり下がった
49. Posted by 2025年02月17日 21:56
結局どこまで技術が進化しても
嘘は嘘であると見抜ける人でないといけないと言う属人的なものは残るって事か
嘘は嘘であると見抜ける人でないといけないと言う属人的なものは残るって事か
48. Posted by 2025年02月17日 21:53
ちなみにわりと普通の人も3,4割くらいはタイトル読んで記事の本当の内容を誤解してるという話はある
ここのスレタイトルとかもな!w
ここのスレタイトルとかもな!w
47. Posted by 2025年02月17日 21:53
ほんまgoogleのは邪魔だよな
ネットにはフェイクが多いからあのようになるのだろうか
ネットにはフェイクが多いからあのようになるのだろうか
46. Posted by 2025年02月17日 21:50
まさか茶目っ気を出してんじゃないだろうな
45. Posted by 名無し 2025年02月17日 21:49
Youチューブのも全部嘘だろ
44. Posted by 2025年02月17日 21:37
Googleのやつ酷いって言うから見たらマジで酷くて草
他の話とごっちゃにしたり完全に捏造だったりフェイクニュースの方がマシなレベル
他の話とごっちゃにしたり完全に捏造だったりフェイクニュースの方がマシなレベル
43. Posted by 2025年02月17日 21:32
ハルシネーションどうにかしないと使い物にならないのはわかりきってたこと。
勇み足で組み込みすぎ。
勇み足で組み込みすぎ。
42. Posted by ああああ 2025年02月17日 21:27
偏向メディアよりはマシやろ…
41. Posted by 2025年02月17日 21:13
のべっち!のべっち!
40. Posted by 2025年02月17日 21:09
chatgptしか使ってないけどo1はなかなかよ
高いけど
高いけど
39. Posted by 2025年02月17日 21:09
人間の書いたニュースも恣意的なのや誤報捏造多いから大差ないな
38. Posted by 2025年02月17日 21:00
Googleのもあいつに聞いた後
検索して検証する作業しないといけないから急いでるときとか割とどうでもいい事ぐらいしか使えんよな
検索して検証する作業しないといけないから急いでるときとか割とどうでもいい事ぐらいしか使えんよな
37. Posted by 2025年02月17日 20:59
>>32
まあそうなんだが、それじゃ本来勘違いしてる奴に本来の意味や使い方が伝わんねえだろ
太宰じゃあるまいし
まあそうなんだが、それじゃ本来勘違いしてる奴に本来の意味や使い方が伝わんねえだろ
太宰じゃあるまいし
36. Posted by 2025年02月17日 20:58
デマばっかりのニュースで学習させたらデマしか生まれんだろう
35. Posted by 2025年02月17日 20:57
嘘を嘘と(ry
ここまでなしか…
ここまでなしか…
34. Posted by あ 2025年02月17日 20:57
いつのAI使ってんだよ
33. Posted by -_- 2025年02月17日 20:55
中国のAIに天安門の事を聞いても答えをはぐらかすそうだ
制作者によってどうにでもなるのがAI
制作者によってどうにでもなるのがAI
32. Posted by 2025年02月17日 20:54
>>30
「私の妻」で正しいぞw
「私の妻」で正しいぞw
31. Posted by 2025年02月17日 20:53
AI信者「AIを悪く言うなんてBBCは反AIだ!」
30. Posted by 2025年02月17日 20:52
言葉一つ調べてもいい加減だからな
勘違いしてる奴に説明する為に「愚妻」調べて見せてやろうと思ったら「愚かな妻」「私の妻」とか書いてあって嫌になったわ
勘違いしてる奴に説明する為に「愚妻」調べて見せてやろうと思ったら「愚かな妻」「私の妻」とか書いてあって嫌になったわ
29. Posted by 2025年02月17日 20:51
ネットの情報を鵜呑みにしちゃうからな…仕方ないのだろうけど
28. Posted by 2025年02月17日 20:49
後から訂正しましたーってソースのせいだわな
27. Posted by 吹雪 2025年02月17日 20:49
(GPTって頭固いよなw)
26. Posted by 2025年02月17日 20:48
���Υ����ȤϺ���ޤ�����
25. Posted by 2025年02月17日 20:47
>>4
自業自得で人生間違いだらけの毎日を送る
引きこもりメンヘラニート
自業自得で人生間違いだらけの毎日を送る
引きこもりメンヘラニート
24. Posted by 2025年02月17日 20:46
googleの検索で一番上に出てくるのマジで邪魔。
消す設定ないから打つ手がない。
消す設定ないから打つ手がない。
23. Posted by 2025年02月17日 20:46
元からフェイクニュースの時もあるからまぁ
新聞も日にちぐらいだろ絶対に正確なのは
新聞も日にちぐらいだろ絶対に正確なのは
22. Posted by ん? 2025年02月17日 20:46
そりゃそうだろ
AIには裏取り作業を行える外部インターフェース機能が無い
AIには裏取り作業を行える外部インターフェース機能が無い
21. Posted by 吹雪 2025年02月17日 20:44
そりゃあ、そうだわ、如何にそんなAIと面白く付き合えるか
そう言えばね昨日は自分専用の非公開のAIを一体造らせて頂きました。
ありがとう御座います。また面倒臭いけど増やそうと思ってる。
そう言えばね昨日は自分専用の非公開のAIを一体造らせて頂きました。
ありがとう御座います。また面倒臭いけど増やそうと思ってる。
20. Posted by 2025年02月17日 20:43
むしろ残りの半分が間違い皆無の完璧な物だとしたらそっちに驚く
19. Posted by 2025年02月17日 20:42

ホームラン級の馬鹿
wwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwww
18. Posted by 2025年02月17日 20:41
Googleはやる事なす事余計で重くするだけの無駄機能ばかり増やす
17. Posted by 2025年02月17日 20:40
これでオールドメディアとか言い出す人たち草も生えない
16. Posted by 2025年02月17日 20:39
>>14
出口調査は、答え合わせをすればわかるがかなり信用できる。
一方、弱者男のいう「ネットの声」は毎回大外しw
出口調査は、答え合わせをすればわかるがかなり信用できる。
一方、弱者男のいう「ネットの声」は毎回大外しw
15. Posted by 2025年02月17日 20:39
>>12
弱者男は、人間だけどソース出さないのはもちろん誤りもしないからAI以下だぞw
弱者男は、人間だけどソース出さないのはもちろん誤りもしないからAI以下だぞw
14. Posted by 2025年02月17日 20:38
選挙の時のマスコミの出口調査もウソ答えるやつが多すぎてぜんぜん信憑性がないみたいなことあったけど
ソース元がそもそも間違えてたりウソ書いてたら何の意味もないわな
ソース元がそもそも間違えてたりウソ書いてたら何の意味もないわな
13. Posted by 2025年02月17日 20:38
>>10
弱者男は、マスコミの記事ですら正しいとは限らないのだから注意深く読もう、という方向にいかずに、そのマスコミの記事をソースにしたまとめサイトが適当につけた嘘タイトルをうのみにして記事内容すら確認しないって、マジ??w
弱者男は、マスコミの記事ですら正しいとは限らないのだから注意深く読もう、という方向にいかずに、そのマスコミの記事をソースにしたまとめサイトが適当につけた嘘タイトルをうのみにして記事内容すら確認しないって、マジ??w
12. Posted by 2025年02月17日 20:37
AIがあまりにも適当なこと言うからソース出せよって要求したら謝りだした時は呆れた
何ていうか・・・AI相手に5ちゃんねるみたいなやり取りをするとは思わなかった
何ていうか・・・AI相手に5ちゃんねるみたいなやり取りをするとは思わなかった
11. Posted by 2025年02月17日 20:36
>>6
韓国は自国の歴史を自国の史料で証明が出来ない馬鹿の国です。
韓国は自国の歴史を自国の史料で証明が出来ない馬鹿の国です。
10. Posted by 2025年02月17日 20:35
まあAIが間違い多いとしてもだ、じゃあ現実のニュースも正しいのかというとそれも微妙。解釈違いや印象操作も多いし
8. Posted by 2025年02月17日 20:33
AIの捏造ネタを真に受ける知的障害者ばっかだからヤバい
馬鹿だからてめえでソース確認するって頭がないの
馬鹿だからてめえでソース確認するって頭がないの
7. Posted by 2025年02月17日 20:32
利用するAIモデルの品質によるからね
安かろう悪かろうが総数的には多いのだろう
安かろう悪かろうが総数的には多いのだろう
6. Posted by 2025年02月17日 20:32
>>3
※おおもとの記事を書いたマスコミ関係者をだいたい在日認定してしまっている弱者男w
※おおもとの記事を書いたマスコミ関係者をだいたい在日認定してしまっている弱者男w
5. Posted by 2025年02月17日 20:32
だからアカヒは避けろとw
4. Posted by 2025年02月17日 20:31
>>2
日本語を勉強したことのない中国人ですら読み取られるレベルのことすら理解できていないことも多い日本語力クルド人以下の弱者男w
日本語を勉強したことのない中国人ですら読み取られるレベルのことすら理解できていないことも多い日本語力クルド人以下の弱者男w
3. Posted by 2025年02月17日 20:31

2. Posted by 2025年02月17日 20:31
>>1
弱者男は、記事のタイトルしか読めずにまとめサイトの詐欺タイトルに軽く釣られるから、AI要約以下って、マジ??w
弱者男は、記事のタイトルしか読めずにまとめサイトの詐欺タイトルに軽く釣られるから、AI要約以下って、マジ??w
1. Posted by 2025年02月17日 20:30
役立たずで草
まさにおまえらだな
まさにおまえらだな