見出し画像

いくらAIが便利だからって、子どもの教育データをGPTに流し込んで表を作らせようとする馬鹿教師は滅亡して欲しい

 駄目だからね。

 確かにAIは便利なんですが、どこかの会社とのオンライン会議などのログをそのまま文字起こしにして出力し、それをGPTに食わせて要約してSLACKに流している馬鹿もいました。まあどこまでOpenAIを信頼するか(あるいは他のサービスと比べてマシと考えるか)にもよるのでしょうが、某ベンチャー企業で当方との打ち合わせのログをそのままGPT3.5に食わせて出力した議事録のサマリを送ってきたので、さっそく「何考えてんだおまえ」という話になりました。

 なんでこんなことに気を使うのかというと、もちろん第一義的には私どものクライアントは潜在的にOpenAIの競合でもあるからなのですが、ただ、仮にAppleの仕事をしていた人がGoogleのAndroidOSでPixelが提供している文字起こしツールを使うことは競合先サービスの利用忌避や守秘義務に反するのかというのはデリケートな問題です。

 同じようなことはTencentやAlibabaなど中華系ベンダーが今後提供するであろう多言語対応のAIサービスの利用にあたって、TikTokとは比べ物にならないぐらいの情報漏洩リスクに直面することになるけど、アメリカ系のサービスなら許されるが中華は駄目だという線引きに明確な根拠があるのかと言われると良く分かりません。

 日本でも、上場企業の広報が割とイージーにPRtimesなどの外部広報サービスを使って新しいサービスのリリースを出すのが当然になってますが、これだって、PRtimesを信頼するかという問題は常にあって、リリース前の情報が集まるこれらのサービスはインサイダー情報の山になっているため、その機密に触ることのできる人はデータ抜き放題インサイダー取引やり放題になるんですよ。

 同じようなことで、これらの新しめのサービスにおいて海外に向けて込み入ったサービス提案を先方に提示するために安易に翻訳サービスやツールに機密情報を流し込んだり、明らかに取引先企業の機密情報を含むデータ類を要約して社内周知の議事録にするためにAIに食わせたりするのって、ちゃんと社内(組織内)ルールを作っておかないと駄目なんじゃないのと思うわけです。

 でも、昨今はSaaSが流行りでクラウドに自社データをだいたいアップロードしておいて、必要なタイミングでこれらを切り出してダウンロードして使うってのが一般的になりましたが、本当に機密なのは暗号化するにしても、一般的な提案事項や技術動向などの書類、取引先関連、リリース情報などは何も考えずパワポのままアップしたりしてると思います。

 また、中華製だからZoomの利用は駄目だと言っておきながら、偉い人のスマホにトレンドマイクロ製ウイルスバスターが入ってたり、家族がLINEで位置情報交換してたり、娘さんがFEPでsimeji使ってたりします。それでいてワイちゃんはGmail使ってたりもしますが、どこまでがコントロールできるリスクで、どこからが組織的にご家族含めて利用不可とするかは真面目に考えるべき時期に差し掛かっているのでしょう。

 そんな状況に直面していたところ、とある先進的教育委員会からの通報で「技術的に詳しい教員が、出入りしている民間教育ベンダーの人工知能向けに、試験的に某学区に通う子どもの教育データを全部AIに喰わせて(不登校など)問題を起こしそうな子どもの割り出しをやってみました」というのどかなメールが送られてきたので、私はエコノミーシートから落ちました。

 どこまで馬鹿なのでしょう。

 GPTなどいま話題になっているのはあくまで言語モデルですよ。 GPT-4 の最大トークン長は32,768までであって、別段多変量解析まで勝手にやってくれるわけでもなし、そもそもGPTとは何であって、何が可能なのかも理解することなく、データを突っ込めばそれっぽい素晴らしいものが返ってくると考えてこんなクソみたいなことをしようとしてるってことですよね。

 さらには、あくまでこれらの言語モデルでできることは「彼らが入手できるレベルの、一般的で過去に起きたこと」なのであって、それがそのまま将来その通り実現する保障はまったくありません。教育データが項目ごとに示す意味も理解しませんし、全体の構造も把握しません。教育と子ども、学校、教師、家庭環境といった概念を理解しませんから、ここでいう「問題を起こしそうな子ども」を割り出すような作業はもっともAIには向かない分野のひとつだということも分かっていないことになります。

 確かに「何かを言えば、それっぽい反応をしてくれる」という理解であれば、何か入れればいいことあるんじゃないかと思うのが人情ですが、かつて電話が開通した際に「声が届くのだから荷物も届くだろう」と電柱に張られた電線に荷物を括りつける馬鹿が続出したのと同じレベルの過ちを起こしていることは冷静に反省するべきです。

 また、これらの一連の教育データは原則として子どもに関する情報なのであって、みだりにデータをぶっ込んではいけません。聞く限り、試験的とはいえいくつかの教育委員会や公立小中学校で人工知能を使おうとしていた話があるようですので、現段階ではやめておいたほうがいいと思います。

 そんな中、石井夏生利せんせが文部科学省教育データの利活用に関する有識者会議で「パブコメ結果の概要が簡単すぎる。どこからの意見かも示されておらんやないか。透明性に欠けるやろアホが」と丁寧な対応を求める正論をブチかますも、他委員が本件をオールスルーしてしまうという惨事が発生しました。

 プッシュ型支援という児童福祉の考え方は理解できるところですが、データ連携と一口に言ってもどう着地させるのか丁寧な議論が必要ですし、こども家庭庁も立ち上がっている状態ですのでちゃんと検討して欲しいと願うところであります。

 それに追う形で、近く退官される国立情報学研究所所長の喜連川優せんせがプレゼンされてるのですが、これがまた例のアカン感じの報告書がベースになっています。「だからアメリカの教育データ利活用は素晴らしいんだ」と言いたいのでしょうが、ここにはチャータースクールの問題や、子どもの薬物や拳銃、保護者の暴力・離婚といった、ネガティブファクターについては丁寧に無視されています。こういうことを平気でやるから教育データ関連議論が進まないんじゃないのかと思ったりもしますが、最近、私の愚息も国立・公立の学校に進学を決めてみて察するものもあるので、まあうまく着地させてねと願うところでもあります。

https://www.nii.ac.jp/report/data-for-education.pdf

 ChatGPTのような最新技術が出てきて興味が湧くのは分かりますが、現状の教育データ利活用周りはそれ以前のところでスタックしているので、うまく推進できるように頑張ってねと思う次第です。

 画像はAIが考えた『統計量で教育データを扱うはずが、全量悉皆データをそのまま人工知能にぶち込んでしまい、自ら情報漏洩の危険を冒すお調子者教師」統計量で教育データを扱うはずが、全量悉皆データをそのまま人工知能にぶち込んでしまい、自ら情報漏洩の危険を冒すお調子者教師』です。


神から「お前もそろそろnoteぐらい駄文練習用に使え使え使え使え使え」と言われた気がしたので、のろのろと再始動する感じのアカウント