AI(生成人工知能)を悪用した「性的ディープフェイク」による被害拡大を防ぐため
包括的な対策の強化を急ぎたい という記事をみました
性的ディープフェイクとは 子供や女性らの写真をAIで裸に加工するなどした画像や動画のことで
生成AIの普及で スマートフォンからも容易に作成ができ
勝手にSNSで拡散される という問題が国内外で急増しているということです
そして その被害は有名人だけでなく一般人にまでひろがってきているそうです
最近摘発された事件では
高校生が中学時代に同級生だった女性の画像をもとに 会社員に動画を作成するように依頼していたというもので
全国で卒業アルバムなどから実在する人物の写真を悪用するといった事件が相次いでおり
その犯人は同級生など意外に身近にいる人だったりするそうです
警察庁によると 全国で18歳未満の被害に関する相談は昨年1月~9月で約80件に上り
被害者の8割は中高生で 加害者の半数は同じ学校に通う生徒だったという事です
加害者の方も必ずしも犯罪という意識や営利目的があったわけではなく
ちょっとした興味本位のいたずらであったかもしれないのにと思うと
被害者はもちろん加害者もちょっとしたきっかけで人生に大きな傷を負う事にもなっているのではと心配になります
これは重大な人権侵害であり 悪用の危険性を伝える教育をはじめ
被害を相談し 画像削除につなげる救済の窓口と取り組みの充実が切に望まれます
なのにこれらを直接規制できる国内法がないとも聞きました
その上 削除されたとしても一度ネットワークにのってしまった画像などを根絶することは不可能に近いのではと思います
フェイクでも閲覧を増やすほど収益が得られる仕組みがある限り 利益につられて・・という事例も後を絶たないと思われます
当事者だけでなくSNSの運営企業にも責任を問い罰則などの厳しい対策が取られることもあってもよいのではないかと思っています