【悲報】アップル、自動でiPhone内のロリ画像を検出→通報する機能導入 お前ら完全死亡

1: 名無し募集中。。。 2021/08/06(金) 22:53:41.89 0
アップルは、iPhone内に保存された児童の性的虐待の画像を発見するための仕組みを、米国において導入する。ロイターの8月6日の記事によると、アップルは人々がiCloudにアップロードする前の写真をデータベースと照合し、問題がある画像を検出するという。

ここで用いられるソフトウェアは「neuralMatch(ニューラルマッチ)」と呼ばれる予定で、個人のiPhoneに保存されている画像と、米国の法執行機関のデータベースに登録されている画像を比較し、フラグが立てられた場合、審査が開始されるという。違法な写真であると判断された場合、法執行機関にアラートが出される。

ロイターによると、このシステムは、iCloudサーバーにアップロードされる前のiPhoneに保存されている写真を、チェックするものだという。

このニュースは、フィナンシャル・タイムズが最初に報じていた。フォーブスはアップルにコメントを求めている。

米国司法省は昨年、テクノロジー企業やソーシャルメディア企業に対し、子どもの性的搾取や虐待への対策を強化することを目的とした「自主的原則」を発表し、違法なコンテンツを発見した場合、ただちに当局に報告するよう呼びかけた。

マイクロソフトは、その後、企業がインターネット上の児童の性的虐待画像を特定するためのphotoDNAを作成した。フェイスブックとグーグルも、画像の内容を確認しフラグを立てるシステムをすでに導入している。

ジョン・ホプキンス大学のセキュリティ研究者であるマシュー・グリーンは、アップルが個人のiPhoneをスキャンして「禁止されたコンテンツ」を探すシステムを構築することは、「ダムを壊す」ことになり、米国政府がすべての人々の端末を検閲することにつながりかねないと指摘した。

グリーンはさらに、AP通信に対し、アップルが他の国の政府からの圧力を受けて、別の情報をスキャンするようになるのではないかという懸念を示している。

児童保護団体「National Council for Missing and Exploited Children」によると、フェイスブックが2020年に法執行機関に報告した児童の性的虐待画像は、2000万件に達していた。この数字には、フェイスブックとインスタグラム上の画像が含まれており、2019年の1600万件から上昇していた。

Kimberlee Speakman
Forbes JAPAN
https://news.yahoo.co.jp/articles/822a14997fa069030940559a5f70d07018c8ff22

引用元: ・【悲報】アップル、自動でiPhone内のロリ画像を検出→通報する機能導入 お前ら完全死亡

3: 名無し募集中。。。 2021/08/06(金) 22:57:40.86 0
これiPhoneのローカルに入れてある写真を片っ端からサーバのデータベースと照合するってこと?
通信量激増しねえか?
5: 名無し募集中。。。 2021/08/06(金) 22:59:01.11 0
米国の法執行機関のデータベースに登録されている画像
7: 名無し募集中。。。 2021/08/06(金) 23:00:04.36 0
Androidユーザーに死角なし
8: 名無し募集中。。。 2021/08/06(金) 23:00:15.15 0
chmateのキャッシュとかやばいな
9: 名無し募集中。。。 2021/08/06(金) 23:00:30.56 0
ぜってえハロプロメンバーとかで誤認識されるぜ
10: 名無し募集中。。。 2021/08/06(金) 23:00:51.17 0
androidなんで
11: 名無し募集中。。。 2021/08/06(金) 23:01:14.51 0
日本のアニメ画像はほとんどロリ画像だな
13: 名無し募集中。。。 2021/08/06(金) 23:01:50.51 0
日本人の方が幼く見えるのに…
15: 名無し募集中。。。 2021/08/06(金) 23:02:36.24 0
これって自分の子供だったり姪とかだったりしてもわからないでしょ 子供がお風呂に入ってる写真撮ったらダメっていうのをAppleが判断するっていうのはおかしい
18: 名無し募集中。。。 2021/08/06(金) 23:05:09.22 0
>>15
子供の風呂写真撮るなんて虐待だろ
気持ち悪すぎるわ
22: 名無し募集中。。。 2021/08/06(金) 23:05:58.54 0
>>18
母子で入浴してるシーンを撮る父親は珍しくないよ
68: 名無し募集中。。。 2021/08/06(金) 23:29:28.82 0
>>18
赤ちゃんと嫁さんが一緒に入ってる写真がnyで流れてたことあったな
おっぱいが良かった記憶がある
156: 名無し募集中。。。 2021/08/07(土) 02:52:52.49 0
>>18
りんちゃんの写真持ってるやつ多そう
17: 名無し募集中。。。 2021/08/06(金) 23:03:05.09 0
つまりオリジナルなら検出されないわけか
19: 名無し募集中。。。 2021/08/06(金) 23:05:14.32 0
そこまで賢くないからな
21: 名無し募集中。。。 2021/08/06(金) 23:05:37.38 0
フィジカルに回帰する時代が着たか
23: 名無し募集中。。。 2021/08/06(金) 23:06:12.95 0
データベースに登録されてる画像との一致度を評価するんだから
完全新作ならチェックできないはず
25: 名無し募集中。。。 2021/08/06(金) 23:06:17.73 0
ショタも駄目だから注意ね
27: 名無し募集中。。。 2021/08/06(金) 23:09:36.07 0
AIなんかにゃ無理
俺に任せろ
29: 名無し募集中。。。 2021/08/06(金) 23:11:13.66 0
正答 そんな画像見ないから大丈夫

誤答 Androidだから大丈夫

31: 名無し募集中。。。 2021/08/06(金) 23:11:36.74 0
検閲じゃん、日本なら憲法違反だろ
36: 名無し募集中。。。 2021/08/06(金) 23:14:23.80 0
こんなの許される訳?
明らかに検閲だろ
38: 名無し募集中。。。 2021/08/06(金) 23:15:44.30 0
性犯罪者予備軍が怯えてるなw
全然見てもらっても大丈夫だよ
40: 名無し募集中。。。 2021/08/06(金) 23:16:32.30 0
先が見えてない低能がこういう分かったようなことを書く>>38
44: 名無し募集中。。。 2021/08/06(金) 23:17:49.98 0
>>40
怖いんならスマホ持つのやめたらどうだろう
42: 名無し募集中。。。 2021/08/06(金) 23:17:06.40 0
犯罪者が生きにくい社会
いいやんそれ
43: 名無し募集中。。。 2021/08/06(金) 23:17:41.32 0
こういうのって実は他の目的で見てたりするんだよね 流行とかテロリストとかスパイとか ソフトウェアの仕様を出さないとダメだよ
49: 名無し募集中。。。 2021/08/06(金) 23:20:46.95 0
>>43
他にもいろいろね
それが分かってないバカが「俺児童ポルノ持って無いしwww」
って書いてる
48: 名無し募集中。。。 2021/08/06(金) 23:20:13.21 0
企業の情報も抜けるんだからなんでもありだよ
53: 名無し募集中。。。 2021/08/06(金) 23:24:00.26 0
だから私はXPERIA
SDに保存出来るからクラウド知らず
58: 名無し募集中。。。 2021/08/06(金) 23:25:58.21 0
>>53
アプリに権限があれば見られるだろw
60: 名無し募集中。。。 2021/08/06(金) 23:27:21.62 0
端末契約するときに
その中に「中身見ますよ」としておかないと
これアウトじゃね
契約したのならOKということなんだし
96: 名無し募集中。。。 2021/08/06(金) 23:46:54.62 0
プライバシーどうなってるん
103: 名無し募集中。。。 2021/08/06(金) 23:49:23.55 0
あいぽんって強制クラウド保存なの?
107: 名無し募集中。。。 2021/08/06(金) 23:51:21.06 0
>>103
じゃないよ
iPhone内の容量 > iCloudの無料容量
だし
117: 名無し募集中。。。 2021/08/06(金) 23:57:31.91 0
違法写真をわざわざクラウドに上げようとする犯罪者がいるのか?
123: 名無し募集中。。。 2021/08/07(土) 00:06:18.48 0
>>117
日本人ならガチの児ポだけ何とかすれば良いけど
海外だとエロ漫画でも逮捕されるから
180: 名無し募集中。。。 2021/08/07(土) 12:21:03.12 0
日本にやるだけの甲斐性はなさそうだが
209: 名無し募集中。。。 2021/08/07(土) 15:15:41.23 0
エロサイト見てると「FBIが~」みたいなのが出てくるが本当にFBIに見つかっちゃうのか!

コメントを書き込む

タイトルとURLをコピーしました