ひいらぎネットの永守すみれさんは、子どもたちを性犯罪から守るため、生徒の盗撮映像などをインターネット上から探し出し、警察や学校に通報する活動を行っている。教室内でカバンなどに撮影機器を入れて置き、下からスカート内を撮る映像など、様々な形で生徒が生徒を撮影していると思われる盗撮映像を目にすることも多い。盗撮被害は明るみに出ることが少ないため、報道されている数字よりも被害数は多いと思われる。あるXの投稿では「○○さんの「逆さ」ほしい人いる?」というものがある。「逆さ」というのはスカートの内を下から盗撮したものだという。特定の女子生徒の盗撮映像に報酬を払うと書かれた投稿なども。さらに悪質なメッセージのやり取り、特定の女子生徒の盗撮映像に報酬を払うと書かれた投稿など、未成年者を盗撮加害に駆り立てるような危険な書き込みも多い。写真と共に、生徒の個人情報がさらされていることもある。2023年、撮影罪(性的姿態等撮影罪)が施行。下着や性的な部位などを相手の意思に反して撮影した場合に成立する罪。撮影データの保管、送信等も処罰対象となる。街で話を聞くと性的な写真でなくても、同級生や友人を許可なく撮影したことをきっかけに学校内で問題になることも多い。盗撮トラブルを防ぐために、人を許可なく撮影しない、人が嫌がる撮影をしない。リテレシーから考え直さないといけないと竹山さんがいう。
普通に服を着ている写真を、裸の写真に加工するAIがある。加工したい画像をアップロードするとヌード画像に変換したものを送り返すという。アダルトビデオに出演していたと思われかねないクオリティになっている。
何らかの不利益を被ることがあるという。デジタルタトゥーになってしまう。名前入りの卒業アルバムの写真が、本人の知らないところで加工されたり、ネットに掲載された部活動写真の全員が裸に加工されるケースもある。こういった画像がデジタルタトゥーとなり、子どもの将来に悪影響を及ぼすことが懸念されている。現在、日本にはAIによる裸の写真に加工したことを問う法律はなく、名誉毀損罪などで罰するしかない。韓国ではディープフェイクポルノの制作、視聴、所持を罰する法律が作られている。自分の画像などを不特定多数に公開しないようにすることが重要だとのこと。「beME」というWEB上のサービスがある。複数のアダルトサイト内の写真・動画の顔を検出し、登録ユーザーの顔と一致するか調査し、自分の性的画像・動画だった場合、弁護士に削除などを依頼できるという。
普通に服を着ている写真を、裸の写真に加工するAIがある。加工したい画像をアップロードするとヌード画像に変換したものを送り返すという。アダルトビデオに出演していたと思われかねないクオリティになっている。
何らかの不利益を被ることがあるという。デジタルタトゥーになってしまう。名前入りの卒業アルバムの写真が、本人の知らないところで加工されたり、ネットに掲載された部活動写真の全員が裸に加工されるケースもある。こういった画像がデジタルタトゥーとなり、子どもの将来に悪影響を及ぼすことが懸念されている。現在、日本にはAIによる裸の写真に加工したことを問う法律はなく、名誉毀損罪などで罰するしかない。韓国ではディープフェイクポルノの制作、視聴、所持を罰する法律が作られている。自分の画像などを不特定多数に公開しないようにすることが重要だとのこと。「beME」というWEB上のサービスがある。複数のアダルトサイト内の写真・動画の顔を検出し、登録ユーザーの顔と一致するか調査し、自分の性的画像・動画だった場合、弁護士に削除などを依頼できるという。