Scribble at 2025-03-03 10:58:55 Last modified: 2025-03-03 11:01:52
虐待が疑われる子どもの一時保護を巡り、人工知能(AI)にその必要性を判定させるシステムについて、こども家庭庁が導入見送りを決めたことがわかった。国が2021年度から約10億円をかけて開発を進め、最終的な判断を下す児童相談所の職員を補助する役割が期待されていたが、テスト段階で判定ミスが6割に上った。AIは虐待の判断にはなじまず、実用化は困難と結論付けた。
こども家庭庁は「時期尚早」と判断しているだけじゃないの。なんでそれが「AIは虐待の判断にはなじまず」なんていう原理的なレベルの評価と同じことを言っているかのような記事になるのだろう。この一言って、無知な読売の記者が勝手に添えてるだけの抱き合わせ偏見やどさくさ偏見だろう?
こういう事例が出てきて、AI がなんでもかんでも簡単に解決してくれるなどという錯覚が是正されるのは良いことである。思想としても、社会政策としても、それから真面目なコンピュータ・サイエンスの評価についてもだ。
データの数が少ないという専門家の指摘について、生半可な人であれば、5,000ていどのデータでも「少ないデータから始めて勝手に推論してくれるのが AI ではないのか」と言いたくなるかもしれないが、そんなことは条件が揃わないと実用性のないデタラメを繰り返すだけになるというのが、本質的に確率を使うモデルなのである。特に、教師なしのモデルを利用することが、人で言えば独学みたいなものと同じであり、物事の是非を勝手に判断しては膨大な数の過ちを繰り返さないといけなくなるということが分かっていないといけないし、そのために費やすコストが10億円ていどの予算ではぜんぜん足りないということも分からないわけである。この10億にしても、グラフィック・カードをクラウド・サービスで使う実費なんかじゃなくて、こども家庭庁の出入り業者であるゼネコンやコンサルに払うお小遣いみたいなものであって、いまみんなが使ってる AI サービスで投じられてる予算は言うまでもなく、アメリカのベンチャーが医療や行政サービスに利用している AI のトレーニングで使ってる予算と比べても微々たる金額だと思う。