谷口将紀
東京大学公共政策大学院教授/NIRA総合研究開発機構理事長
竹中勇貴
NIRA総合研究開発機構研究コーディネーター・研究員

概要

 本報告書では、政治的な議論の場における生成AIの活用可能性とリスクについて論じる。NIRA総合研究開発機構は、20248月に北海道東神楽町と共同でChatGPTを使った住民ワークショップを開催した。ワークショップでは、中学生を中心とした若い住民が、「教育」と「まちづくり」という2つのテーマについて、2050年の未来を見据えた長期的な政策ビジョンを議論した。
 ワークショップにおいては、参加者がChatGPTからのアウトプットに触れることにより、元々持っていた町に対する問題意識を未来志向の政策案へと発展させていく様子が見られた。生成AIは、人間だけでの議論ではどうしても生じてしまう思考や行動の制約を乗り越えることに寄与すると考えられる。
 同時に、地域の雰囲気のような「現場知」を扱うことは得意ではないといった、生成AIを使う際の課題・リスクも顕在化した。本報告書では、生成AIの可能性を最大限生かしつつ、リスクを踏まえて実践すべきことも提示する。
 なお、本プロジェクトは、2023年から2024年にかけて実施した研究プロジェクトの続編という位置づけである。前回のプロジェクトの報告書『AIは民主主義を深化させるか?:少子化政策の財源に関する調査実験』は、以下のリンクを参照されたい。

研究報告書『AIは民主主義を深化させるか?:少子化政策の財源に関する調査実験

ポイント

●NIRA総合研究開発機構は、北海道東神楽町において、中学生を中心とした若い住民がChatGPTを使いながら2050年の未来を見据えたビジョンを議論するワークショップを同町と共同で開催した。

ワークショップを通して見えてきた生成AIの活用可能性として、人間が持つアイディアを発展させる、その場にいない人の立場を代弁してもらうことができる、その場にいる人に忖度することがない、ワークショップに必要な業務を効率化する、といったことが挙げられる。

生成AIのリスクとして、「現場知」を学習するのは難しい、政治的に偏った内容や誤情報を提示することがある、生成AIに対して人間の側が拒否反応を示す可能性がある、透明性やアカウンタビリティが十分ではない、といったことが指摘できる。

リスクを踏まえて実践すべきこととして、議論は人間中心とし、生成AIはあくまで「ツール」として位置づけること、学習させる情報のバランスに配慮すること、生成AIのアウトプットと人間の発言を区別すること、生成AI使用のプロセスに関して、可能な限り情報公開をすることなどが挙げられる。

図表

2-1 東神楽町の人口予測
2-2 東神楽町2050ビジョンワークショップの概要
2-3 ワークショップで使用したGPTsにおける「指示」項目の内容
2-4 GPTsに学習させた東神楽町の風景写真の例
2-5 2050年の東神楽町におけるバスについてChatGPTが予測した結果
2-6 2050年の舞台芸術についてChatGPTが予測した結果
3-1 ChatGPTが東神楽町のまちづくりについてSWOT分析を実行した結果
3-2 ChatGPTに学習させる資料によるアウトプットの違い
図4-1 政治的な議論における生成AI活用のガイドライン

INDEX

第1章 はじめに

政治的な議論における生成AIの活用

 近年、AIは様々な形で政治・行政に活用されるようになっている。2024年の東京都知事選に立候補した安野貴博氏が提唱する「ブロードリスニング」では、人々から寄せられた膨大な意見を集約することにAIが使われている。台湾でオードリー・タン氏の主導によって構築されたプラットフォーム「vTaiwan」でも、政策アイディアの提示から意思決定の段階まで、随所でAIの技術が使われている。議事録の作成や行政サービスの提供といった業務をAIによって自動化・効率化する試みも広まっている(井熊・井上・木通 2018; 稲継 2018(注1)

 その中で本報告書は、政治的な議論という場面に注目して、生成AIの活用可能性を模索する。ここで政治的な議論として念頭に置いているのは、いわゆるミニ・パブリックスのような、人々がその場で直接意見を交わす形での議論である。自治体レベルを中心に、このような議論の場が実際の政策形成に活用されることは、今や珍しくない(長野 2024)。そして、現在の水準の生成AIであれば、議論に資するような情報を提供すること、政策のアイディアを提示すること、さらには人間に対して直接的に「意見」を述べることまで、多くの形で議論に関与することができると考えられる。

 同時に、生成AIを使う際には、生成AIのリスク、そしてリスクを踏まえて実践すべきことについての議論も必要となる(山本 2023)。生成AIを政治的な議論の場に導入すれば、当然、参加者が生成AIからのアウトプットに直接的に触れることになる。その場合のリスクとして、「世論誘導」など様々なものがすでに指摘されており(NHK取材班 2020)、対策が必要とされる。AI全般に関するガイドラインであれば多くのものが存在するが(注2)、政治分野に焦点を当てた議論はそれほど豊富に蓄積されているわけではない。

本報告書の概要

 以上のことを踏まえて、本報告書では、政治的な議論の場における(1)生成AIの活用可能性、(2)生成AIのリスクについて論じるとともに、(3)生成AIを最大限活用しつつ、リスクに備えるためのガイドラインを示す。なお、以下本報告書で単に「生成AI」といったときには、基本的にChatGPTのような大規模言語モデル(LLM)を指すものとしたい。

 上記の関心から、すでにNIRA総合研究開発機構(以下NIRA)では2023年から2024年にかけて研究プロジェクトを実施し、報告書AIは民主主義を深化させるか?:少子化政策の財源に関する調査実験』を公表した(谷口・鈴木・竹中 2024)。このプロジェクトでは、少子化政策の財源をテーマとした熟慮型のアンケート調査から、ChatGPTが提示する意見は人間よりもマクロな視点に立っていること、人間にとって実際に参考になると評価されたことなど、議論に生成AIを導入することが有益である可能性を示唆する結果が得られた。

 もっとも、政治的な議論の場において生成AIが役に立つかは、結局のところ実際にやってみなければ分からない。そこで、続くプロジェクトでは、20248月に北海道東神楽町においてChatGPTを使った住民ワークショップを同町と共同で開催することにした。本報告書の内容は、このワークショップの経験を基にしたものである。同様の取り組みを行おうとする政治・行政の関係者はもちろん、AIと政治の関係について関心を持つ研究者や市民も広く読者として念頭に置いている。なお、北海道東神楽町を対象にした本プロジェクトはNIRAと東神楽町の持ち寄り型共同研究であり、NIRAが東神楽町から金銭的対価を受けたものではない。

 以下、第2章では北海道東神楽町のワークショップについてChatGPTの使い方や議論の内容といった詳細を述べる。第3章では、ワークショップから得られた知見として、生成AIの活用可能性とリスクを指摘する。最後の第4章では、結論を述べるとともに、実践向けのポイントとして、生成AIを使う際のガイドラインを提示する。

第2章 北海道東神楽町におけるChatGPTを使った住民ワークショップ

 本章では、20248月に北海道東神楽町において開催された、ChatGPTを使った住民ワークショップについて、ChatGPTを活用するためにどのような体制を整備したか、ChatGPTを導入することで議論にどのような効果があったのかなどを述べる。

1.ワークショップにおけるChatGPTの使い方

ワークショップが実現した経緯

 まず、北海道東神楽町の基本的な情報、そして本ワークショップが実現した経緯について説明しておきたい。東神楽町は北海道のほぼ中央に位置した町であり、旭川市に隣接していること、町内に旭川空港があることなどから、立地条件は良好である。また、町内からは大雪山の景観を見ることができ、周辺には富良野や美瑛といった有名な観光地がある。人口は1万人程度であり、旭川市のベッドタウンとして近年は人口増の傾向にある。2024年に人口戦略会議によって発表された、いわゆる「消滅可能性自治体」にも含まれていない。しかし、東神楽町が公表した資料によれば、人口は今後減少に転じることが予想されており(図2-1)、将来の人口減少を念頭に置いた政策が求められている状況にはある。

図2-1 東神楽町の人口予測

図2-1 東神楽町の人口予測

(出所)東神楽町が2015年9月に公表した「東神楽町 人口ビジョン」p37より。

 2012年に初当選してから2024年2月に4期目を迎えた町長の山本進氏は、町内のデジタル化を積極的に推進しており、本プロジェクトはそのような町長の関心と、政治におけるAIの活用可能性を探るというNIRAの方向性が合致することによって実現した。東神楽町では、2025年から12年を期間とする総合計画の策定が進められているところであったため、さらに長い2050年という未来を見据えた「東神楽町2050ビジョン」を作成するとともに、総合計画策定の議論においても参考にすることとなった。そして、ビジョンの作成のためにAIを使った住民ワークショップを開催する運びとなった。

ワークショップにおけるChatGPTの位置づけと体制

 こうして開催された「東神楽町2050ビジョンワークショップ」の概要を、表2-2にまとめている。テーマとしては、「教育」と「まちづくり」の2つを設定した。東神楽町のウェブページでの募集などに応じた参加者に、2つのテーマのうち希望する方を選んでもらっている。表にあるように、それぞれのテーマに2つずつ小テーマを設定している。

 その上で、2050年という未来を志向した議論をするために、ワークショップでは中学生を中心とした若い住民を参加者とし、ChatGPTは参加者の思考を補うことを目的として導入した。10-20代の住民は2050年には社会の中核を担う年齢となるため、将来に向けた政策を考えるためには議論に参加することが有効であると考えられる。しかし、若いからこそ社会や政策に対する発想力はどうしても限られてしまう。そこで、ChatGPTが参加者に情報やアイディアを提示し、参加者がそれを参考にすることで、議論が充実したものになることを狙った。

 ChatGPTの具体的な使い方であるが、第1回ワークショップではモデレーターが参加者から質問を募集してChatGPTを操作し、その回答を画面に投影する形とした。第2回ワークショップでは、参加者がChatGPTに触れる機会を多くするために、参加者1人ひとりにChatGPT用のPCを用意した。その上で、モデレーター及び大学生の学生アドバイザー4名が参加者に付き添い(注3)ChatGPTにどういったことを聞けばよいかを助言する、PCへの入力操作をするなどといった形で参加者をサポートした。モデレーターは、第1回ワークショップでは古田大輔氏(株式会社メディアコラボ代表)が、第2回では竹中が務めた。

 参加者には、議論の中でChatGPTに聞きたいことを自由に挙げてもらっている。様々な種類の質問があったが、特に有効であったと考えられるのは以下の3つであった。なお、参加者からの希望にはなるべく柔軟に応じるようにしたが、ChatGPTには誤情報を提示するリスクがあることから、事実関係に関する質問は避けることをあらかじめ方針として決めた。

●将来の予測
例:2050年の東神楽町にはどのような交通手段が存在するかを予測してもらう

●特定の人になりきった上での意見
例:2050年の東神楽町の住民として、東神楽町に今からどのようなまちづくりをしてほしいかを述べてもらう

●政策アイディアの提示
例:今の住民が2050年になっても東神楽町に住み続けたいと思えるような政策のアイディアを挙げてもらう

 ChatGPTの使い方に問題がないかを専門的な観点からチェックするために、AI分野の専門家である加藤善大氏と加藤究氏(ともにフューチャー株式会社シニアアーキテクト)がプロジェクトに参加した。両氏はワークショップの準備段階からミーティングに参加してコメントをしており、第1回ワークショップでは現地で臨席している。

 また、ワークショップに先立って、ChatGPTがどのような質問に対してどのような回答をするかシミュレーションを重ねている。望ましくない言葉や明らかな誤情報、東神楽町の実態とかけ離れた回答などが出てこないか、東神楽町職員の協力も受けながらチェックをした。

GPTsの設定内容

 ワークショップ当日のChatGPTとの会話は、通常の会話画面ではなく、GPTsを利用して行った。GPTsChatGPTの機能の1つで、ChatGPTを使うシチュエーションを指示したり、必要な情報を学習させたりすることで、使い道に合った回答を得やすくなるという機能である。そこで、GPTsをどのように設定したかを公開しておきたい。

 GPTsには様々な設定項目があるが、今回使用したGPTsにおいて重要なのは「指示」と「知識」の2つである。「指示」の欄には、GPTsを使う目的などを入れる。以下が実際の文であり(図2-3)、本ワークショップの趣旨として参加者にアナウンスした内容と同一である。

 「知識」の項目では、GPTsに東神楽町についての情報を学習させた。これによって、ChatGPTの回答がどこの自治体にも当てはまるような一般論ではなく、東神楽町の実態に即したものになることが期待される。具体的には、以下のファイルをアップロードした。

●東神楽町の統計
 東神楽町の地理的条件や立地、人口、財政状況、小学校・中学校における教員や児童・生徒の数、東神楽町の歴史など、東神楽町に関する情報が包括的に掲載されている。

●令和6年度町政執行方針
 町長が町議会で1年間の町政の方針について包括的に述べたもの。町としての考えがまとめられた資料として利用した。

●東神楽町教育ビジョン2024
 総合計画と一体的に策定された、教育分野の個別計画。策定されたのは2013年であるが、2024年までを期間としているので使用することにした。教育分野に特化して町としての考え方が示された資料であるといえる。

●令和5年度東神楽町民アンケート報告書
 町が総合計画の策定に向けて住民に実施したアンケートの報告書。「これまでの施策に対する評価」や「これからの東神楽町の町づくりについて」などがテーマであり、住民からの自由回答も含まれている。住民側の意見を学習させるための資料として使用した。

●東神楽町内の写真
 東神楽町がソーシャル地図アプリ「Map Life」上にリリースした「ひがしかぐら観光マップ(景観編)」において、利用者から投稿された東神楽町の風景写真(図2-4(注4)ChatGPTに画像を生成させるケースを想定して使用した。

図2-4 GPTsに学習させた東神楽町の風景写真の例

図2-4 GPTsに学習させた東神楽町の風景写真の例

(出所)写真はソーシャル地図アプリ「Map Life」の「ひがしかぐら観光マップ(景観編)」より。

2.ワークショップでの議論の内容

(1)第1回ワークショップにおける議論:東神楽町が抱える課題の抽出

 2回のワークショップでの議論を大きくまとめると、1回目で東神楽町の問題点が抽出され、2回目でその問題を解決するための政策アイディアが提示された、という流れになる。2回のワークショップのどちらにおいてもChatGPTを使ったが、第1回のワークショップでは参加者がChatGPTの存在に慣れていないこともあってか、ChatGPTのアウトプットを踏まえた議論というよりは、参加者の日常的な経験からの問題提起が多かった。

 第1回ワークショップで提示された参加者の意見の例を、以下に抜粋して示す。

キャリア教育

●職業体験の対象が町内にある職業に限られるため、体験したくてもできない職業が多い。

デジタル教育

●教員がデジタル機器の操作に慣れておらず、授業が止まってしまうこともある。

●生徒によってSNSの使い方の習熟度に大きく差があり、SNSを使いこなせない人が友達との会話についていけないなど、現実の人間関係に影響を与えることもある。

●SNSのリテラシーについての授業は、してはいけないことや危険なことの話ばかりで、SNSを前向きに使っていく方法を考える機会があまりない。

公共交通

●バスの本数が少なく、長い時間待つ必要がある。

●バス停が狭く、居心地が悪い。ゴミが捨てられていることもある。

魅力あるまちづくり

●東神楽町は美瑛や富良野といった周辺の自治体に比べて名物や観光名所がなく、東神楽町らしさが感じられない。

●東神楽町は「花のまち」として知られ、「花まつり」というイベントもあるが、町内では花が前面に出てきているように感じられない。

(2)第2回ワークショップにおける議論:ChatGPTのアウトプットと政策アイディア

 第2回ワークショップでは、第1回で提示された東神楽町の課題を踏まえ、参加者が政策案を提示していった。モデレーター及び学生アドバイザーが参加者とグループを形成してChatGPTを使いながら政策案を考え、グループごとに全員の前で発表し、全体でディスカッションをした。参加者1人に1台のPCを割り当てたため、参加者がChatGPTに質問をする機会も十分に確保でき、参加者の問題意識とChatGPTの出力がうまく結びついたと考えられる提言もいくつかあった。そのうち、特に興味深かったものを例として2つ挙げる。

●公共交通と地域コミュニティ

 東神楽町の公共交通について、第1回ワークショップではバスの本数が少なくバス停で待つ時間が長い上に、バス停の居心地が悪いことへの不満が相次いでいた。そこで、第2回ワークショップでは、ChatGPT2050年におけるバスのあり方を予測してもらったところ、地域住民の交流を支えるためのコミュニティバスが発展しているという記述があった(図2-5)。そこから、ある参加者は公共交通が単なる移動の手段ではなく、人々の交流やコミュニティの維持にも寄与するという発想を得た。そして、バス停の居心地をよくし、バスを待つ時間を利用して他の住民と交流できる場所として整備できないか、という提言が生まれた。

●文化的活動を通じたアイデンティティの創出

 ある参加者は、第1回ワークショップにおいて、地域のダンス・演劇サークルに所属しているが、その活動が町としてあまり注目されていないという意見を述べていた。同時に、美瑛や富良野といった有名な観光コンテンツを持つ周辺の自治体に比べて、「東神楽町にはこれがある」という感覚があまり持てないとの問題点も指摘した。

 これら2つの問題意識を踏まえ、第2回ワークショップで2050年の舞台芸術についてChatGPTに予測をしてもらったところ、図2-6のように地域における文化がその地域のアイデンティティの形成と関連している旨の記述が出てきた。それによって上記2つの点がつながり、東神楽町独自の曲や東神楽町を題材とした演劇を作って広めることを通じて、東神楽町民としてのアイデンティティを確立させ、東神楽町に住み続けたいと思える人を増やすことができるのではないか、という提言につながった。

 ChatGPTを使うことにより、中学生を中心とした若い住民が、しかもワークショップの限られた時間の中でこれらの提言に至ったことは、特筆に値するだろう。

図2-6 2050年の舞台芸術についてChatGPTが予測した結果

図2-6 2050年の舞台芸術についてChatGPTが予測した結果

(出所)ChatGPTのスクリーンショット。

3.「若者発:東神楽町2050ビジョン」の取りまとめ

 2回のワークショップの内容は、「若者発:東神楽町2050ビジョン」という文書に取りまとめられ、20249月に開催された総合計画策定委員会の場でワークショップ参加者の代表から策定委員会の委員長に手交された。ビジョンの全文は報告書末尾の補遺に掲載している。

 ビジョンは全部で3章構成である。イントロダクションの第1章、本ワークショップの概要をまとめた第2章に続いて、具体的な提言を第3章でまとめている。「キャリア教育」「デジタル教育」「公共交通」「魅力あるまちづくり」という小テーマごとに、(1)若者が提起した東神楽町の課題(2)提案(3)具体的な施策という順番で整理している。(1)がおおむね第1回ワークショップにおける議論の内容に相当し、東神楽町の課題を挙げている。(2)は、第2回ワークショップで最終的に参加者から示された政策提言を、文章の形でまとめたものである。(3)では、(2)の文章において具体的な提言案に該当する箇所を箇条書きの形でまとめ直している。

 なお、本ビジョンの政策提言は、2050年というかなり先の未来を念頭に置いた、しかも若い世代によるものである。したがって、町として対応すべき問題か、既存の町の政策と整合的かなど、いくつかの「大人の事情」を考慮しつつも、参加者のリアルな声や魅力的な提言はなるべく削ることなく盛り込むことを方針としている。

第3章 政治的な議論における生成AIの活用可能性とリスク

 本章では、プロジェクト全体を通して得られた知見として、政治的な議論における生成AIの活用可能性とリスクを挙げていく。

1.政治的な議論における生成AIの活用可能性

●人間のアイディアを発展させる

 生成AIの活用可能性としてまず挙げられるのは、人間の思考を刺激し、人間が持つアイディアを発展させることである。第2章で述べたように、コミュニティ作りの一環としてのバス停の整備や、町の歌を作ることを通した町民としてのアイデンティティの創出といった提言は、まさに参加者が持っていた発想とChatGPTの回答が組み合わさって、新たなアイディアが得られた例であるといえる。

 なお、ここで指摘しているのは生成AIそのものが何かいいアイディアを出してくれるよう期待する、ということではない。生成AIはすでに存在するデータを学習し、それを基にしてアウトプットをしているにすぎず、生成AIからのアウトプット自体に新規性を期待できるとは限らない。

●議論の視点を多様化する

 次に、生成AIに特定の立場の人になりきってもらうことで、議論の視点を多様化することである。例えば、本ワークショップにおけるChatGPTの使い方として、2050年の東神楽町の住民になりきってもらい、町の様子や実施してほしい政策などを尋ねるというものがあった。もちろん、人間が2050年の住民の立場を想像して議論する方法もありうるが、生成AIに未来の人の立場を代弁してもらうことは、生成AIの有効な使い方の1つであると考えられる(谷口・鈴木・竹中 2024)

 この使い方は、未来人に限らず様々な立場からの意見を生成AIに述べさせる形で、広く応用が利くだろう。議論の場には様々な属性の人がなるべくバランスよく参加することが望ましいが、スケジュールや予算といった現実的な制約によって実現できないことも多い。もちろん、生成AIのアウトプットをそのまま当事者の意見として使うことはできないが、議論の場にいる人がいない人に対する想像力を高め、議論の視野を広げることには資すると考えられる。

●「人間らしさ」の制約を乗り越える

 生成AIが人間と自然に会話できるほどの能力を備えながら人間ではないことは、議論において「人間らしさ」から生じる制約を乗り越えることに役に立つ。

 そもそも、政治や政策といった話題について、生身の人間を相手に正面から議論することにはどうしても心理的な負担がかかってしまう。しかし、そういう人であっても、生成AIが相手であれば気軽に意見を述べることができるかもしれない。実際、本ワークショップでも、人間どうしで議論する時間には口数が少なかった参加者が、ChatGPTを前にすると積極的に質問を投げかけるようになるという一幕があった。

 また、生成AIは、人間とは違って何かを言う際に忖度をすることがない。今回のワークショップは若者を中心としたこともあって、参加者からは比較的遠慮なく意見が寄せられた。しかし、年齢がより高い人が議論をする場合、言いたいことがあっても気を遣って言えないケースもある。例えば、自治体関係者や地域の有力者が積極的に関与している政策について、正面から問題点を指摘することを躊躇してしまうかもしれない。この点、生成AIであれば問題であることは問題であるとはっきり述べる。このことは、議論のアジェンダや、議論の中で参加者が考慮する情報を多様化することにつながるだろう。

●政治的な議論の機会を増やす

 最後に、生成AIが議論の場を設けるためのコストを下げうることを指摘したい。今回の住民ワークショップのような取り組みを行うためには、参加者に配布する資料の作成や議論の内容の取りまとめなど、大きな手間がかかる。そういった業務に生成AIを活用して効率化することは、人々による議論の場をより積極的に活用する可能性を開くと考えられる。

 実際に、今回のワークショップでも参加者に配布する資料の作成にChatGPTを導入している。図3-1は、ワークショップのテーマの1つである東神楽町のまちづくりについて、ChatGPTにSWOT分析(注5)をしてもらった結果である。ChatGPTに東神楽町の統計集をアップロードしてSWOT分析をするよう命令するだけで、瞬時に結果が出力される。このSWOT分析の結果は、東神楽町職員と共同で事実関係を確認する(注6)、中学生が理解できるように表現を変えるなどの作業を経た上で、実際に参加者への配布資料に盛り込んでいる。

2.政治的な議論における生成AIのリスク

 次に、政治的な議論の場で生成AIを使用する際のリスクを挙げる。本プロジェクトでは、ChatGPTを使うことによる問題が生じないよう、AIの専門家の監修を受ける体制を構築することをはじめ、細心の注意を払った。よって、ワークショップに関して目立ったトラブルが生じることはなかった。本節で挙げるのは、実際に生じたインシデントから得られた教訓というよりは、プロジェクトの議論の中でリスクとして提起され、筆者らが留意した点である。

●大規模言語モデルと現場知

 ChatGPTのような大規模言語モデルは、言語化することが難しい情報を扱うことが得意ではない。そのため、地域の雰囲気や関係者の空気感といった「現場知」を踏まえた回答は期待できない。もちろん、技術的には必要な情報を言語化して学習させることで対処できる部分もあるが、限界があろう。

 今回のワークショップの例でいえば、東神楽町が「花のまち」というスローガンを掲げている一方で、参加者からは町内で花が見られる箇所はごく一部であり、それほど「花のまち」という感覚がないことが相次いで指摘された。これは、筆者らが実際に現地を訪れた際の感覚とも一致する。しかし、インターネット上で東神楽町について検索すると、「花のまち」として知られているという趣旨の文章が数多くヒットする。したがって、生成AIも「花のまち」としての東神楽町を高く評価する。このように、当事者が実感していることと生成AIが学習していることには、大きなギャップが存在する可能性がある。

●生成AIのアウトプットのバイアス

 生成AIのアウトプットは、学習した内容に大きく左右される。特に、自身で生成AIに何らかの情報を学習させる場合には、その内容に注意することが必要である。自治体の実態に即した回答を得ようとするあまり、学習させる情報の量を多くしすぎると、アウトプットが学習させた情報に過剰に引っ張られてしまう、過学習(overfitting)の問題が生じうる。また、学習させる内容に偏りがあると、アウトプットもまた偏ってしまう可能性が高くなる。

 学習させる内容の偏りとアウトプットの関係を、簡単な例でデモンストレーションしてみたい。図3-2は、ChatGPTに「あなたは東神楽町の住民です。東神楽町における観光についての意見を簡潔に述べてください。」と尋ねた結果を、(1)町政執行方針のみを学習させた場合、(2)住民アンケートのみを学習させた場合、(3)双方を学習させた場合でそれぞれ示したものである。東神楽町における観光客数の回復を指摘するパターン1と、観光面で更なる取り組みが必要であるとするパターン2では、明らかに温度差があることが分かる。そして、町政執行方針と住民アンケートの両方を学習させたパターン3では、観光におけるこれまでの実績と今後の課題の双方がバランスよく言及されている。

図3-2 ChatGPTに学習させる資料によるアウトプットの違い

図3-2 ChatGPTに学習させる資料によるアウトプットの違い

(注)図は、ChatGPTに「あなたは東神楽町の住民です。東神楽町における観光についての意見を簡潔に述べてください。」と尋ねた結果である。
(出所)ChatGPTのスクリーンショット。

 また、今回のワークショップではイデオロギー対立が顕在化するような展開となることはなかったが、生成AIが政治的にバイアスを持った内容を提示する可能性にも注意が必要である。海外の研究では、ChatGPTが左派的なバイアスを持つこと(Motoki, Pinho Neto, and Rodrigues 2024)、そして特定の立場になりきってもらう質問への回答は、同じ立場の人間を対象にした世論調査の結果と乖離があることなどが指摘されている(Argyle et al. 2023; Bisbee et al. 2024)。日本においてはどうであるかをはじめ、今後の研究によって議論の動向が変化していく可能性も大いにある。しかし、生成AIに完全な中立性を期待することはいずれにしても現実的ではないと考えられる。

●ハルシネーション

 生成AIが誤情報をあたかも真実であるかのように提示することは、ハルシネーション(hallucination)と呼ばれる。多くの大規模言語モデルのアウトプットは、この単語の後にはこの単語が続く可能性が高い、というように単語どうしを確率的に組み合わせたものにすぎず、何かを検索した結果ではない。

 現に、自治体の業務に生成AIの導入を進める際には、検索目的での使用はなるべく避けることが方針として掲げられることが多くなっている。例えば、生成AIを全庁的に導入した先駆例として知られる横須賀市では、当初生成AIを検索のために使う職員が38.5%存在したという。そこで、検索という使い方が必ずしも望ましいわけではないことを庁内報などで周知することにより、検索目的で使う職員は30.4%に減少し、その代わりに多様な方法で活用されるようになったことが報告されている(注7)

●生成AIに対する人間の認識

 議論の場に生成AIが入ることを人間の側がどう受け止めるか、という問題もある。本ワークショップに限っていえば、ChatGPTに対する参加者の評価はおおむね好意的であったようである。例えば、ワークショップ後にNHKがある参加者に実施したインタビューでは(注8)、「最初はChatGPTの使い方が分からなかったが、自分の意見を補足するものとして有効であることが分かった」というコメントがあった。しかし、そもそも本ワークショップのように生成AIを使うと公式に表明した場には、生成AIに懐疑的な人が集まりにくいだけかもしれない。

 学術研究では、AIに対する人間の反応は実に多様であることが示されている(Aoki 2020)。AIに対する嫌悪感はもちろん、逆にAIの判断しか信用しようとしない自動化バイアス(automation bias)、AIのアウトプットのうち、元々の自分の考えと一致するものしか受け入れようとしない傾向などが指摘されている(Selten, Robeer, and Grimmelikhuijsen 2023)。これでは、生成AIは人間の思考を広げるどころか、人間が元から持っている認知の歪みを増幅させるだけである。

●透明性とアカウンタビリティの欠如

 最後に、政策決定に求められる「透明性(transparency)」や「アカウンタビリティ(accountability)」といった概念は、生成AIを使用する上でも重要になる。現在の生成AIは極めて高度化している代わりに、学習した情報から出力に至る過程を完全に把握することは難しく、ブラックボックスの状態になっている。したがって、生成AIがなぜその出力に至ったのかを誰も説明できず、決定した政策によって生じた問題の責任を生成AI自身が取ることもできない。生成AIを政治的な議論に活用する場合、生成AIが持つ透明性やアカウンタビリティの欠如は、生成AIが介在して形成された政策に対する信頼性の低下にそのままつながりかねない(Busuioc 2021; Grimmelikhuijsen 2023)。

第4章 結論

1.知見のまとめ

 本報告書は、北海道東神楽町におけるChatGPTを導入した住民ワークショップの詳細を述べるとともに、ワークショップを通じて明らかになった生成AIの活用可能性とリスクを指摘した。

 本ワークショップから得られた収穫として特に大きかったのは、政治的な議論における生成AIの有効な使い方がいくつかの形で実感できたことである。その具体例は第3章で挙げたとおりであるが、大まかにいえば、生成AIが議論の場に存在することによって、人間だけで議論するのでは直面していたであろう行動や発想の制約を乗り越えることができる、ということになる。人間だけで議論することには、人間であるからこその限界がある。生成AIは、そのアウトプットを通じて、人間どうしの議論をより充実したものにするポテンシャルを秘めている。

 もっとも、生成AIが活きる局面は政治的な議論のプロセス全体のうちごく一部である。生成AIが次々に使えるアイディアを出してくれるかというと、そうでもない。生成AIはどんな問題でも解決してくれると過度な期待をしないこともまた重要である。生成AIのアウトプットはあくまで「参考」であり、最後は人間が自分の頭で考えて議論をしなければならない。

 本報告書では、生成AIのリスクにも言及した。ハルシネーションや過学習といった、生成AIの問題点として一般的に指摘されていることは、政治的な議論の場でもやはり問題となると考えられる。また、生成AIの政治的バイアスのように、政治分野においてとりわけ留意すべき問題もある。生成AIの技術が発展する中で、新たに生じるリスクを見極める姿勢が必要である。

 本報告書の内容は、政策をめぐる議論の場に生成AIを導入するという、今回のワークショップと同様の取り組みに広く応用可能であると考えている。しかし、本報告書が提示した知見は、あくまで人口1万人規模の自治体において、若い世代が2050年の未来を考えるという、特定のワークショップを基にしたものである。また、今回のワークショップでは、立場の対立する人が議論を通して合意形成をするというよりは、各参加者が独創的な政策アイディアを提示することの方に重きが置かれた。よって、参加者や趣旨などが異なるケースにおいては、新たな発見が得られる可能性もある。今後、議論の場にAIを導入する試みが各所で行われ、知見が蓄積されることも期待したい。

2.政治的な議論における生成AI活用のガイドライン

 最後に、実践的なポイントとして、政治的な議論において生成AIの活用可能性を最大限発揮しつつ、リスクに対処するために注意すべきことをガイドラインとして提示する(図4-1)。「大原則」、「生成AIへのインプットについて」、「生成AIのアウトプットについて」、「生成AIを使用する体制の構築」という4つの観点から、9つの点を挙げている。これらは、あくまで本報告書で指摘した範囲でのリスクを念頭に置いたものにすぎず、「すべてを守れば絶対に大丈夫」という性質のものではないことに注意されたい。

大原則

1)議論は人間中心とし、生成AIはあくまで「ツール」として位置づける
 まず重要なのは、議論の主人公はあくまで人間であり、生成AIはそれを補助するツールとして位置づけることである。「人間中心」は今やAI業界において標準的なスローガンとなっているが、同じことは政治的な議論の場においても当てはまる。

2)生成AIを使う目的を明確にする
 人間中心を原則とする以上、同じことを人間だけで行うのではどのような問題があり、その問題は生成AIを使うことによってどのように解決できるのか、生成AIを使う目的を明確にして関係者や参加者にも共有しておく必要がある。

生成AIへのインプットについて

3)学習させる情報のバランスに配慮する
 生成AIに何かの情報を新しく学習させる場合は、特定の立場からの意見ばかり学習させることがないようにするなど、バランスに考慮することが求められる。

4)個人情報のインプットは避ける
 生成AIに業務上知りえた個人情報や機密情報を入力することは厳禁である。特に公務員の場合は守秘義務との兼ね合いもあり、一般目的での利用以上に慎重さが求められる。

生成AIのアウトプットについて

5)生成AIのアウトプットと人間の発言を区別する
 最終的な判断を人間が担うためには、生成AIのアウトプットと人間の発言を明確に区別すること、そして生成AIの出力が人間の意見にどのような影響を与えたかを把握しておくことが必要である。

6)生成AIのアウトプットを事前にシミュレーションしておく
 生成AIの出力がライブで人々の目に触れる形で使用する場合、望ましくない文章が表示されるリスクを下げるために、生成AIに入力する内容をあらかじめいくつか想定しておき、どのような出力が得られるかを試しておくことが有効である。

生成AIを使用する体制の構築

7)生成AI使用のプロセスに関して、可能な限り情報公開をする
 生成AIの推論の過程を100%把握することは困難であるが、学習させた情報や質問の内容などが記録としてきちんと残され、可能な限り公開されている必要がある。

8)生成AIの使い方に問題がないか、専門家によるチェックを受ける
 インプットする情報に偏りはないか、アウトプットに誤情報やバイアスがないかなど、専門家の監修を受けることができれば最善である。

9)生成AIに精通した人材を育成する
 専門家のチェックを受けることが常に可能であるとは限らない。長期的には、職員組織の中で生成AIの技術面をフォローできる人材育成も必要になるだろう。

参考文献


稲継裕昭(2018)AIで変わる自治体業務:残る仕事、求められる人材』ぎょうせい.
井熊均・井上岳一・木通秀樹(2018)AI自治体:公務員の仕事と行政サービスはこう変わる!』学陽書房.
M. クーケルバーク著/直江清隆・金光秀和・鈴木俊洋・二瓶真理子・古賀高雄・菅原宏道訳(2023)AIの政治哲学』丸善出版.
工藤郁子(2019)「政治におけるAI」『三田評論』1230: 34-39.
佐藤哲也(2017)AIと政治」『人工知能』32(5): 672-77.
谷口将紀・鈴木壮介・竹中勇貴(2024)AIは民主主義を深化させるか?:少子化政策の財源に関する調査実験』NIRA総合研究開発機構.
長野基(2024)『市民ワークショップは行政を変えたのか:ミニ・パブリックスの実践と教訓』勁草書房.
蒔田純(2020)「政策形成におけるAI活用に関する一考察(上)」『弘前大学教育学部紀要』124: 31-40.
――(2021)「政策形成におけるAI活用に関する一考察(下)」『弘前大学教育学部紀要』125: 41-48.
山本龍彦(2023)『〈超個人主義〉の逆説:AI社会への憲法的警句』弘文堂.
NHK取材班(2020)AI vs. 民主主義:高度化する世論操作の深層』NHK出版.
Aoki, Naomi. 2020. “An Experimental Study of Public Trust in AI Chatbots in the Public Sector.” Government Information Quarterly 37 (4): 101490.
Argyle, Lisa P., Ethan C. Busby, Nancy Fulda, Joshua R. Gubler, Christopher Rytting, and David Wingate. 2023. “Out of One, Many: Using Language Models to Simulate Human Samples.” Political Analysis 31 (3): 337-51.
Bisbee, James, Joshua D. Clinton, Cassy Dorff, Brenton Kenkel, and Jennifer M. Larson. 2024. “Synthetic Replacements for Human Survey Data?: The Perils of Large Language Models.” Political Analysis 32 (4): 401-16.
Busuioc, Madalina. 2021. “Accountable Artificial Intelligence: Holding Algorithms to Account.” Public Administration Review 81: 825-36.
Grimmelikhuijsen, Stephan. 2023. “Explaining Why the Computer Says No: Algorithmic Transparency Affects the Perceived Trustworthiness of Automated Decision-Making.” Public Administration Review 83 (2): 241-62.
Motoki, Fabio, Valdemar Pinho Neto, and Victor Rodrigues. 2023. “More Human than Human: Measuring ChatGPT Political Bias.” Public Choice 198 (1): 3-23.
Saar, Alon-Barkat, and Madalina Busuioc. 2023. “Human-AI Interactions in Public Sector Decision Making: “Automation Bias” and “Selective Adherence” to Algorithmic Advice.” Journal of Public Administration Research and Theory 33 (1): 153-69.

補遺 「若者発:東神楽町2050ビジョン」

 「若者発:東神楽町2050ビジョン」の全文はこちら

引用を行う際には、以下を参考に出典の明記をお願いいたします。
(出典)谷口将紀・竹中勇貴(2025)「AIは民主主義を深化させるか?〔Ⅱ〕―生成AIを使った若者によるワークショップの事例研究―」NIRA総合研究開発機構

脚注
1 学術的にも、AIと政治の関係については公共政策や政治哲学をはじめ多くのアプローチで議論されるようになっている(クーケルバーク 2023; 工藤 2019; 佐藤 2017; 蒔田 2020; 2021)。 1 学術的にも、AIと政治の関係については公共政策や政治哲学をはじめ多くのアプローチで議論されるようになっている(クーケルバーク 2023; 工藤 2019; 佐藤 2017; 蒔田 2020; 2021)。
2 例としてEUの「AI法(AI Act)」、OECDの「AI原則(AI Principles)」、内閣府統合イノベーション戦略推進会議による「人間中心のAI社会原則」が挙げられる。 2 例としてEUの「AI法(AI Act)」、OECDの「AI原則(AI Principles)」、内閣府統合イノベーション戦略推進会議による「人間中心のAI社会原則」が挙げられる。
3 学生アドバイザーは、東京大学教育学部において牧野篤教授の指導を受けている学生である。ワークショップに先立って、ChatGPTの使い方や注意点について打ち合わせをしている。牧野氏は、以前から東神楽町のまちづくりに関わってきた経緯がある。 3 学生アドバイザーは、東京大学教育学部において牧野篤教授の指導を受けている学生である。ワークショップに先立って、ChatGPTの使い方や注意点について打ち合わせをしている。牧野氏は、以前から東神楽町のまちづくりに関わってきた経緯がある。
4 「ひがしかぐら観光マップ(景観編)」の写真ページより。2025年2月28日最終アクセス。 4 「ひがしかぐら観光マップ(景観編)」の写真ページより。2025年2月28日最終アクセス。
5 「SWOT」は、強み(strength)、弱み(weakness)、機会(opportunity)、脅威(threat)の頭文字を取ったものである。 5 「SWOT」は、強み(strength)、弱み(weakness)、機会(opportunity)、脅威(threat)の頭文字を取ったものである。
6 例えば、図3-1の「全体の27.6%65歳以上」というのは、正確な数字ではない。 6 例えば、図3-1の「全体の27.6%65歳以上」というのは、正確な数字ではない。
7 横須賀市職員が2024319日に財務総合政策研究所で行った講演の資料「行政機関での生成AIの活用可能性と課題~横須賀市のChatGPTの全庁的な活用事例から~」より。2025228日最終アクセス。 7 横須賀市職員が2024319日に財務総合政策研究所で行った講演の資料「行政機関での生成AIの活用可能性と課題~横須賀市のChatGPTの全庁的な活用事例から~」より。2025228日最終アクセス。
8 インタビューの内容については、2回のワークショップの現場を取材したNHK旭川放送局の上松凛助記者より情報提供を受けた。 8 インタビューの内容については、2回のワークショップの現場を取材したNHK旭川放送局の上松凛助記者より情報提供を受けた。

©公益財団法人NIRA総合研究開発機構

※本誌に関するご感想・ご意見をお寄せください。E-mail:info@nira.or.jp

研究の成果一覧へ