児童の性被害防止のため、愛知県警がスマートフォンアプリの開発を進めています。その普及に向け、藤田医科大学の学生らが若者視点のアイデアを発表しました。
愛知県警では、ベンチャー企業と協力し、スマートフォンでわいせつな画像を撮影するとAIが自動で削除したうえで保護者に警告するメッセージを送信するアプリの開発を進めています。
全文はこちら
https://www.fnn.jp/articles/-/383650
アプリ削除されたら終わり
教師や警察が悪用しそう
>>7
それ
特に教師がヤバいな
アプリじゃ意味ねーな
andoroidとiOSがAIで弾いてくれれば防げるけど
わいせつ画像撮るような奴のスマホにこんなアプリ入ってるかよw
少しは考えろよ
愛知県警が予算組んでこんな物を作る必要あるの?
判定のために自ポ画像サーバーに送った時点でサーバ側逮捕じゃね
AIってサーバー型?
それだといっかい裸がアップロードされる事になるけど
AIが自動で削除したうえで保護者に警告?
警告だけ?
証拠を削除した上で?
犯罪者大喜びじゃんw
>>1
アプリが完成したとして、誰がそんなアプリインストールするんだよ
OSに組み込まれてるとかじゃないわけだし
>>66
素直に愛知県警の言うことを信じる莫迦な親 w
学生が提案したと言えば反発少なくなるとでも思ったか
撮影写真を外部に転送してチェックか
猥褻画像じゃなくても勝手に転送されるの嫌やろ
よー開発GOサインでたな
金になる気せえへんのやけど
AI判断で保護者に警告は良いとして自動削除は誤動作の時には勝手に資産削除するんだから器物破損になるんじゃないの
撮影時にAIが判断して怪しい時に「この写真を保存すると保護者の携帯に転送されますが良いですか?」って警告文が出るようにすれば良いんでないか
機械学習とか全然詳しくないけど、
これ、supervised learning として、実際の児童ポルノを多数読み込ませて特徴を抽出して数値化する作業が必要なんだろ?
これは悪意あるソフトだわ
普通にウイルスです
>>1
どうやってAIに学習させるのかな?
こんなアプリどんな親がインストすんねん
撮った画像動画全部サーバーにアップして検閲されんだろ?
猥褻以前に気持ち悪すぎやし、万一親が入れててもそんなアプリすぐ削除するわ