この動画を観たことがありますか?
2年ほど前に、ドイツの通信事業会社「ドイツテレコム」が、親が子どもについて本人の同意なくネット上で公開する行為、いわゆる「シェアレンティング」が招く危険性を訴える動画を公開しました。
シェアレンティングとは、ウォール・ストリートジャーナルが「オーバーシェア(過剰共有)」+「ペアレンティング(育児)」をかけあわせてつくった造語です。(wikipedia「シェアレンティング」)
シェアレンティングの構造
子育ての記録として写真を撮ることはずっと昔からされていましたが、デジタルカメラやカメラ搭載のスマートフォンの普及によって、記録される写真の枚数は飛躍的に伸びました。
また、SNSの普及によってその画像が、家族や友人を超えて過剰に共有されるようになりました。
子どもが直面する日常には、私たち大人の日常とちがい、たくさんの新しい刺激と感動そして成長があります。ルーティンワークの中からはなかなか生まれてこないような、おもしろかわいい表情をたくさん見せます。
そういった我々大人にはなかなかあらわれない“非日常”は、格好の「映え」ネタとなり、大人の承認欲求を満たします。
共有された大人も、純粋なもの(と純粋だった頃の自分)への愛おしさを感じたり、我が子への育児時代の原風景を呼び起こしたりする人が多く、「うまい店のラーメン」へのいいねよりももう少し深い感情に至るといえ、「優良コンテンツ」として成立しています。
AI技術による合成メディアの大衆化
こういった“想定されていた”発信と消費の構図に、暗雲がたちこめてきました。
AI技術の一般への普及です。
例としてCyberLink社の記事へのリンクを貼り付けます。CyberLink社は、動画編集ソフトPowerDirectorなどのソフトウェアを開発販売している歴史ある会社です。
※こちらの記事では「ディープフェイク」という言葉が用いられています。ディープフェイクは、「ディープラーニング」+「フェイク」を組み合わせた造語ですが、一般的には「合成されたか判別がつかないほど極めて精巧につくられたメディア」を指しますので、本記事内ではディープフェイクとは呼ばず、あくまでも合成メディアを呼ぶことにします。
ここで紹介されているようなアプリはごく一般的なアプリですが、静止画を簡単な動画にしたり、顔を入れ替えたりすることが簡単にできます。これらの合成メディアは、見慣れていれば「アプリで作ったテンプレ合成メディアだな」と簡単に気付きますが、エンタメとして十分に成立します。
ポルノ市場へ流れるコンテンツ
画像加工だけで言えば、20年以上前から「アイコラ(アイドルコラージュ)」はありました。インターネットからアイドルの画像とポルノ画像をダウンロードして、アイドルの顔の部分を切り取ってポルノ画像に貼り付けるといった類のものです。画像編集に長けた一部の人が、上手に切り抜いたり、肌の色の補正などを駆使して“それとなく自然に近づけた”合成画像をつくっており、またそれをインターネット上にアップして共有するということが行われていました。
当然のことながらこれは立派な犯罪ですが、取り締まって完全になくすということはずっと実現してきませんでしたし、それゆえアイドルはつらい思いも覚悟せざるを得なくなっていました。
これが、“誰でも”“手軽に”できてしまいます。しかも当時よりもはるかに自然な画像として。さらには動画でもできてしまいます。もはや、魔の手はアイドルから一般人にまで及んでいるのです。
すでに深刻な問題となっていることを、定期的に報道でも取り上げられていますが、それでもまだ知らない方もたくさんいらっしゃるかと思います。ネットでシェアレンティングされた画像を、悪意ある人がダウンロードし、ポルノ画像・動画として合成し、ポルノサイトへアップするということが行われています。
ネットをずっと使ってきた人は知っていることですが、運営会社やアップされているサーバーが海外ですと、犯罪であってもなかなか取り締まることができません。アップした人を特定することが難しいこともありますし、アップされてしまったコンテンツを、削除要請することが難しいというのも問題です。
自分は大丈夫の過信が危険
親の「私は、子どもの画像をアップする際、性的な描写につながりそうな部分がないかちゃんとチェックしている」という自負が、むしろ油断となるというケースもあります。水着姿はアップしない、股を広げたような姿勢の画像はアップしないなど、注意していらっしゃる方もたくさんいると思いますが、合成メディアではそんなことまったく関係がないのです。顔だけがあれば性的搾取されるコンテンツが生成されてしまうのです。
シェアレンティングについてある程度理解をしていて、SNSで「7歳になったので、娘のSNS登場を卒業します」といった宣言をする方もいらっしゃいます。
ただ、小児性愛という病気の人も一定数いるということ。幼児は搾取されないかというと全くそうではありません。また、SNS登場の卒業と同時に過去にアップしたメディアを削除しているかというと、その割合は多くないでしょう。
また、冒頭の動画でも紹介があるように、子どもの頃の写真から、「○年後の顔」というものも生成できる技術があります。全くの同一人物ではないとしても、非常に似ていると言えますし、またこういった技術の今後の進化も当然考えなくてはなりません。
親は思春期の我が子のセクスティング(恋人に要求されて性的な自撮り画像を送信するなどの行為)について心配をし、よくよくその危険性について注意することがあります。その一方で、自分が行なっているシェアレンティングへの危険性については“相当”脇が甘いともいえるのではないでしょうか。
短パンの中を盗撮して変態仲間に共有されるというのもとてもおそろしいですが、どこの誰だか分からないパンツの画像と、たとえフェイクだとしても我が子の顔とはっきりわかるポルノ画像とを比べたら、それはさらにおそろしいことです。いずれにしても一番傷つくのは親ではなく子どもです。
まずは立ち止まるところから
1ヶ月ほど前の記事で、「子どもの肖像に関する権利は子ども本人のもの」であると書きました。
子どもの個人の尊厳をどのように尊重し、守っていくべきか、立ち止まって考えるきっかけになれば嬉しいです。
「絶対載せるべきではない」のであれば、それは法律づくりの話になってくると思います。まずは、親としてよく考え、そしてお子さんともよく話し合われることから始めてみてはいかがでしょう。
※冒頭の動画では、顔だけでなく、アップされた動画から音声を抽出し音声プロファイルを作成し、詐欺に利用する危険性についても言及しています。ディープフェイクの大衆化は日進月歩ですから、1年後にはこの記事の警鐘すら時代遅れになっている可能性もあります。


コメント