【ソウル共同】韓国で生成人工知能(AI)を悪用した性的な偽画像や動画の作成が相次ぎ、10代女性の被害が深刻化している。秘匿性が高い通信アプリ「テレグラム」を使って作成、拡散しているとされ、韓国メディアによるとテレグラムのチャンネルには22万人が参加。加害者の多くも10代で被害は全国に広がり、政府は対策を急いでいる。 尹錫悦大統領は27日の閣議で、性的な偽画像の作成は「いたずらではなく明白な犯罪だ」と徹底捜査を指示。政府は30日の対策会議で、従来の流布だけでなく所持や閲覧も罰する法改正を進めることを決めた。 韓国メディアによると、テレグラムのチャンネルには女性の偽画像を作る自動プログラムが入っている。女性の写真を入力して仮想通貨を払えば裸の画像や動画が作成される。地域や学校ごとに偽画像を共有するチャットルームもある。「知らない間に自分や知人が被害者になっているのではないか」と不安が広がっている。 警察庁によると、偽画像に関する昨年1年間の犯罪は180件だったが、今年は7月までに297件に達した。
鄭重声明:本文の著作権は原作者に帰属します。記事の転載は情報の伝達のみを目的としており、投資の助言を構成するものではありません。もし侵害行為があれば、すぐにご連絡ください。修正または削除いたします。ありがとうございます。