News Discussion
AI Manipulation in Influence Operations and How to Deal With It

Weekly News Digest
産経オンライン英会話 ニュースディスカッション教材

1
AI Manipulation in Influence Operations and How to Deal With It

Directions: Read the following article aloud.

以下は出典ニュース記事を要約した英文です。

In 2024, with major elections in over 70 countries, vigilance against influence operations, which manipulate public opinion through false information on social media and AI, is increasing. The use of AI to alter politicians’ faces and voices in audio and video is on the rise, with fears of intensification as the US presidential election approaches. Misinformation was rampant during Taiwan’s January election, with nearly half of the rumors echoing those from previous elections. Japan, too, is addressing misinformation concerns ahead of its Lower House by-elections.

AI advances make it easy to create false information, making the threat of influence operations harder to detect. In October 2023, the Canadian government warned that Chinese bots were behind the “Spamouflage” campaign. In February 2024, 20 IT companies, including Microsoft, agreed to collaborate to prevent election interference from AI-generated misinformation. Influence operations use “MDM” [Misinformation, Disinformation, Malinformation] to achieve their purpose. Misinformation refers to the intentional use and spread of incorrect facts or misleading statistics, while disinformation is false information created with malicious intent. Malinformation is truth-based information presented with harmful intentions.

Some countries have enacted laws regulating fake news, but this has led to journalists criticizing the government becoming investigation targets. Japan has refrained from suppressing misinformation and disinformation through legislation, instead pursuing measures such as collaboration with platform operators and media literacy education. Japan is also behind on fact-checking, with its combined efforts across all organizations amounting to only several hundred compared to Indonesia’s approximately 10,000 annual fact-checks.

Source:AI Manipulation in Influence Operations and How to Deal With It
JAPAN Forward

2
Key phrases and vocabulary

Directions: First repeat after your tutor and then read aloud by yourself.
1. manipulate (手で)操作する、巧みに扱う、操る、コントロールする
The company was found guilty of manipulating their financial data.
2. on the rise 上昇中、増えつつある、増加している
The cost of living is on the rise in many cities.
3. misinformation (意図的に流された)誤情報
It’s important to check the source of information to avoid misinformation.
4. disinformation (人を欺いたり混乱させたり、等故意に発信される)偽情報
The government warned the public about the disinformation being spread online.
5. media literacy education メディアリテラシー教育
Media literacy education can help people understand and analyze media messages.

3
Questions

Directions: Read the questions aloud and answer them.
1. What are influence operations and how are they becoming a concern in 2024?
2. What are Misinformation, Disinformation, and Malinformation in the context of influence operations?
3. How is Japan addressing the issue of misinformation and disinformation?
4. Have you ever encountered misinformation on social media? How did you handle it?
5. Do you think media literacy education is important? Why or why not?

4
SNSでデマ拡散し世論操作、選挙イヤーで各国警戒 AIで本物そっくりの音声や動画

以下は出典記事原文の日本語訳です。本教材の要約英文の日本語訳ではありません。

世界70カ国・地域以上で大型選挙が行われる今年、交流サイト(SNS)を通じて虚偽情報やデマなどを拡散し、世論操作を行う「インフルエンスオペレーション(影響力工作)」への警戒感が強まっている。人工知能(AI)で政治家の顔や声を本物そっくりに加工した音声や動画は各国で広がり、11月の米大統領選に向けて、より活発化する恐れもある。

「あなたの一票が違いを生むのは11月です。今週の火曜日ではありません」

米ニューハンプシャー州で今年1月、バイデン大統領になりすまし、予備選での投票を見送るよう呼びかける偽電話が有権者にあった。AIを使って作成されたとみられ、米当局が捜査している。

1月に行われた台湾総統選でも偽情報が飛び交った。台湾の非営利組織「台湾ファクトチェックセンター」によると、総統選挙中に流れたデマのほぼ半数は、過去の選挙中に流布されたデマ情報とほぼ同じか類似していたという。

与党が票を水増しするために特殊なインクを使用したり、別の投票箱を使用したりしているという偽情報は、選挙前に有権者に選挙プロセスに対する疑念を植え付けることが目的だとしている。

日本でも衆院3補欠選挙が16日に告示されたことに絡み、松本剛明総務相が同日の閣議後会見で「海外の選挙で偽・誤情報が出回ることにより、選挙に影響が出ているのではないかという状況を認識している」と言及。制度面を含めた総合的な対策の検討を進めるとした。

こうしたSNSなどを介して虚偽情報やデマ情報を拡散する世論操作は「インフルエンスオペレーション」と呼ばれる。特定の政治的、社会的、経済的目標を達成するために、ターゲットとなる個人や集団の認識や行動を意図的に変えることを目的としている。

インフルエンスオペレーションの脅威は、AIの進化によって偽情報が簡単に作れる一方で、サイバー攻撃のように明確な人的被害や物的被害が確認しづらいため、表面化しにくい。

カナダ政府は昨年10月、2018年からインフルエンスオペレーションキャンペーンを展開する「スパモフラージュ」の背景には中国がいると注意喚起した。米IT大手メタは、関連するフェイスブックのアカウント約7700件などを削除。東京電力福島第1原発処理水の海洋放出に関する偽情報の流布にも関与されたとされる。

米マイクロソフトなどIT企業計20社は今年2月、AIの偽情報などで選挙が妨害されるのを防ぐため、連携して対策することに合意した。

情報セキュリティー会社「トレンドマイクロ」の成田直翔氏は「いくつかの情報を複合的に巧みに織り交ぜて展開するため、受け手側が操作された情報なのか判別するのが難しい」と指摘。その上で、「情報リテラシーの向上や偽情報が拡散されにくい環境を整える必要がある」と訴えている。

インフルエンスオペレーションは「MDM」といういくつかの情報を織り交ぜた手法が用いられている。

最初のMのミスインフォメーション(誤情報)は誤った歴史的事実や誤解を招く統計などを意図的に用いて、拡散や引用することを指す。

次のDのディスインフォメーション(偽情報)は悪意を持って作成された偽情報のこと。ロシアのウクライナ侵略では、ゼレンスキー大統領が兵士や市民にロシア側への投降を呼びかけている偽動画がフェイスブックに投稿された。日本でも昨年、岸田文雄首相の偽動画がネット上で拡散された。

SNSでデマ拡散し世論操作、選挙イヤーで各国警戒 AIで本物そっくりの音声や動画
JAPAN Forward