子ども・子育て分野で生成AIの導入を検討する際の参考に。こども家庭庁はハンドブックを公表しました

こども家庭庁は、2025年3月31日、「生成AIの導入・活用に向けた実践ハンドブック」を公表しました。これは、こども家庭庁が生成AIの実証事業をすすめるなかで、自治体や保育施設での先進的な取組事例を収集・分析し、知見を整理して作成しました。子ども・子育て分野で生成AIの導入を検討する際の参考資料と位置づけています。ハンドブックには、基礎編と事例編があります(基礎編は≪コチラ≫、事例編は≪コチラ≫です。)。

【基礎編】生成AIの基礎知識、生成AIを導入する際の留意点を、初学者にもわかるように解説しています。生成AIは、保育・子育て相談支援におけるAIチャットボット(ユーザーと自動で会話を行うプログラム)の活用子どもの保育・教育におけるコンテンツの生成、職員の文書作成支援多言語対応による外国人家庭への支援写真記録をもとにした日誌・連絡帳の文言作成などで効果的な活用が期待されます。その反面、その特性ゆえに注意を要する点もあります。生成AIは内部構造が非常に複雑で、生成AIが回答に至った経緯が不透明のため、生成AIの出力した内容には不正確な回答や判断のリスクがあります。一見すると正しい情報のように見えるが実際には存在しない情報や誤った事実を回答することがあり(ハルシネーション)、生成AIが出力した内容については、必ず情報の正確性や真偽性を確認する必要があります。利用者が生成 AI に入力した情報が次期の生成 AI モデルの学習に利用される場合は、入力した情報が外部に漏えいするリスクがあるため、入力して問題のない情報かどうか(個人情報・要機密情報かどうか)を確認の上で利用する必要があります。生成AIにより既存の著作物と似た生成画像が出力され、その生成画像を利用する場合には著作権侵害となるリスクがあり、生成 AIの生成物を外部に発信する目的で利用する場合は、あらかじめ類似した文章や画像がないか確認することが望ましい。生成AIの出力は学習データに基づき生成されるため、学習データにおける偏り等が出力結果に反映されることで、特定の属性(人種、性別、文化等)に対する偏りが生じ、差別や偏見を助長するおそれがある、としています。これ以外に、規制やガイドラインの動向、生成AI導入の具体的な進め方などが説明されています。

【事例編】生成AIの具体的な活用事例を紹介しています。たとえば、庁内資料や広報物、会議記録・要約の作成支援、イベントや計画のアイディア創出支援、翻訳作業の支援、インシデントの検知支援などの実例があります。