倉敷南1年次
生成AI講演会
投稿日:2024年10月7日(月曜日)
10/4(金)岡山大学工学部の門田 暁人先生をお招きし、生成AIの活用とそのリスクについての講座を行いました。先生からは、生成AIの具体的な活用法とともに、今後のAIの進化、そしてリスクについての講演がありました。公演の内容は以下の通りです。
<生成AIの活用例>
●添削や要約による仕事の効率向上
生成AIは、文章の添削や要約を迅速に行い、業務の効率を大幅に向上させます。特に、大量の資料を短時間で処理できる点が便利です。
●アイディア出しの「壁打ち」ツール
アイディアを整理したり、新しい発想を得るための「壁打ち」として、生成AIを活用できます。複数の視点から提案を得ることで、考えを広げることができます。
●自主学習での活用
生成AIは、自主学習においても有効です。ただし、「ハルシネーション」と呼ばれる誤った情報が含まれる可能性があるため、生成された内容の正確性を確認することが重要です。
●プロンプトの重要性
生成AIを効果的に活用するには、プロンプト(入力内容)の質が非常に重要です。明確で具体的な指示を与えることで、AIの出力結果の精度を向上させることができます。
●2030年に向けた生成AIの進化
門田先生は、2030年頃には、生成AIが法律など特定の分野で人間の専門職を凌駕する可能性があると述べられました。特に、事務作業などの分野では、AIの進化によって人間に代わる役割を担うことが予測されています。一方で、創造的な仕事は引き続き人間の手によるものが重要視されるでしょう。
<生成AIの仕組み>
生成AIは、機械学習や深層学習を基盤として動作しており、脳の神経回路を模倣したニューラルネットワークを使用しています。膨大なデータを学習し、そのパターンを元に自然な文章や回答を生成する能力を持っています。
<注意点>
●情報漏洩のリスク
生成AIに入力したデータが学習データとして利用される可能性があるため、機密情報や個人情報の扱いには注意が必要です。
●著作権の問題
AIが生成したコンテンツが既存の作品に似ている場合、著作権の問題が発生するリスクがあります。生成物の利用には慎重な対応が求められます。
●ハルシネーションのリスク
AIは、時に現実には存在しない情報や誤った回答を生成することがあります。生成された情報の信頼性を常に確認し、重要な判断には慎重を期すべきです。
●依存しすぎるリスク
生成AIに頼りすぎることで、自ら学び、成長する機会が減少してしまう恐れがあります。知識や技術を習得するためには、AIに依存せずに自ら考え、行動する姿勢が重要です。
今回の講座では、生成AIの利便性だけでなく、そのリスクや注意点についても学びました。生徒たちには、AIを上手に活用しながらも、自らの成長を大切にしていく姿勢を持ってほしいと期待しています。
