多分「子どもの写真を撮影した」からでなく、自動でクラウドにバックアップとかしたってオチじゃね
知らんけど

Googleは児童性虐待記録物(CSAM)撲滅のための取り組みを行っていて、自動化された審査と人間の目視による審査でGoogleのプラットフォーム上にCSAMがないかどうかを確認しています。この仕組みに、子どもの写真を撮影

GIGAZINEのまとめサイトレベルの記事だと説明はしょってるけど、リンク先確認するとちゃんと書いてあるな

At least two parents have lost access to their Google accounts over images of their children requested by pediatricians.

Because the images were backed up to Google Photos, a Google system designed to detect CSAM flagged them. Upon review, the company deactivated the accounts and referred the cases to the CyberTipline at the National Center for Missing and Exploited Children.

まあ、「ソフトウェアエンジニアとして問題があるコンテンツを自動削除するツールの開発に携わった経験」のあるマーク氏でさえクラウドに肌色コンテンツをアップするリスクを理解してないアメリカと違って、有名どころのオンラインストレージは検閲されてることが周知されてるHENTAI大国の日本なら、この程度は当り前当然そして常識で説明するまでもないってGIGAZINEの判断も妥当なのか、私気になります
(諸説あります)

フォローする