AIは学習データの外側に出られるのか:新しさを引き出す原理と方法
TL;DR
AIは学習データの確率分布からサンプリングしているだけだから新しいものは出ない——この素朴な直感は、概ね正しいが文字通りには強すぎる。Bodenの創造性3分類で整理すると、組み合わせ的創造性(既存要素の新しい組み合わせ)と探索的創造性(既存空間の未踏領域の発見)は原理的に可能だ。一方、変換的創造性(概念体系そのものの変革)は仕組み上保証されない。ただしこの境界は曖昧で、人間の創造も同じ構造を持つ。実際のAI出力が「平均的で無難」に感じられるのは原理的限界ではなく、頻度バイアス・保守的デコード・RLHFの安全調整・Model Collapseという4つの圧力によるものであり、各圧力に対応した打ち手で新しさは引き出せる。
AIは既存パターンの再生産機なのか
「AIは学習データの確率分布をサンプリングしているだけなのだから、学習データにない革新的なアイデアや絵柄は出てこないのでは?」
最近AIを使っている人なら一度は感じたことのある疑問だろう。私自身、AIに文章を書かせたり画像を生成させたりするたびに、「なんか無難だな」「既視感がある」と感じることがある。その経験がこの疑問を強化する。
この見方は概ね正しいが、文字通りに受け取ると強すぎる。そこで本記事では2つの問いを順に考える。
- 原理的に、AIは真に新しいものを出力できるのか?
- 出せるのであれば、どうすれば出せるのか?
議論の軸として、認知科学者Margaret Bodenの創造性3分類を使う。
- 組み合わせ的創造性(combinational): 既存の要素を新しい組み合わせにする。浮世絵×サイバーパンク、ジャズ×電子音楽のようなもの
- 探索的創造性(exploratory): 既存のルールやスタイルの空間の中で、未踏の領域を見つける。バッハの様式の中でバッハが書かなかった曲を生成するようなもの
- 変換的創造性(transformational): ルールや概念体系そのものを変える。非ユークリッド幾何の発明、キュビスムの誕生のようなもの
この3分類は計算的創造性の分野で広く採用されている枠組みであり、AIの創造性評価にも直接適用できる。以降ではこの軸を一貫して使い、「AIは何ができて何ができないか」を整理する。
第1部:原理的に新しいものを出せるのか
丸暗記ではなくパターンの学習
まず土台を確認する。モデルは学習データをそのまま丸暗記して吐き出しているわけではない。
興味深いことに、ニューラルネットワークはランダムラベルのデータでさえ完全に暗記できる能力を持つ。にもかかわらず、実際の訓練では汎化が起きる——つまり、見たことのないデータに対しても妥当な予測を行う。モデルは文法・概念・構図・因果関係といったパターンを内部表現として抽出・学習し、そこから確率的に新しい組み合わせを生成できる。
GPT-3は人間と区別が困難なニュース記事を生成するが、それらの文章は訓練データに存在しない新しいトークンの組み合わせだ。自分が読んだことのない日本語の文でも、日本語として生成できるのと同じ原理である。
つまり「訓練例として見たことがない出力」自体は日常的に生成される。AIは「コピー機」ではない。この事実が、組み合わせ的創造性の前提条件になる。
補間と合成:組み合わせ的・探索的創造性
では、Bodenの3分類に沿って、AIが実際に発揮できる創造性を見ていこう。
組み合わせ的創造性——既存部品の新しい組み合わせ
LLMはプロンプトに応じて、訓練データ上の異なる文脈から学んだ概念を組み合わせて出力できる。「経済学の視点からアニメの脚本構造を分析して」と指示すれば、どちらの領域にもない横断的な文章が生成される。画像生成でも「浮世絵×サイバーパンク」のような組み合わせは典型的だ。
ただし、ここには重要な注意がある。Lake & Baroni (2018) は、ニューラルネットワークが系統的な合成的汎化(compositional generalization)に失敗することを実証した。つまり、「見かけ上の新しい組み合わせ」は生成できるが、人間のように規則に基づいて体系的に新しい組み合わせを生成する能力には限界がある。AIの合成は、パターンマッチングの延長であって、論理的な構成能力ではない。
具体例で考えるとわかりやすい。Lake & Baroniが用いたSCANベンチマークでは、モデルに「jump」と「twice」を個別に訓練した後、「jump twice」のような未見の組み合わせをテストする。人間なら「twice = 2回繰り返す」という規則を理解しているので、どんな動詞にも即座に適用できる。しかしニューラルネットワークはこの種の体系的な適用に失敗する。つまりAIの組み合わせ能力は「訓練データ中の似た組み合わせからの補間」であって、「規則を理解して未知の入力に体系的に適用する」能力ではない。
探索的創造性——既存空間の未踏領域の発見
画像生成モデルにおいては、VAEやGAN、拡散モデルが高次元の潜在空間を学習する。この空間は連続的であるため、2つのスタイルの「中間」を補間(interpolation)することで、訓練画像のどれにも一致しない見た目を生成できる。
ここで重要な区別がある。「人間が見たことがない出力」と「モデルの分布外の出力」は同じではない。モデルが学習した分布の中にあるが、人間の目には新しく映る——これが探索的創造性の実態だ。
第1部の中間結論: 組み合わせ的創造性と探索的創造性は、LLM・拡散モデルの原理から可能だ。ただし合成能力には系統性の限界がある。
発明の境界:変換的創造性はどうか
3つ目の変換的創造性——概念体系そのものを変える能力——はどうか。
非ユークリッド幾何の発明、キュビスムの誕生、無調音楽への転換。これらは既存のルールの「中」で新しいものを見つけたのではなく、ルール自体を書き換えた。
Franceschelli & Musolesi (2025) は、LLMが組み合わせ的・探索的創造性は示すが、変換的創造性は現在の訓練パラダイムでは達成不可能だと論じている。理由は明快で、LLMは固定された重みと固定された目的関数を持ち、訓練後にルール体系を自発的に書き換える機構を持たない。
しかし、ここには微妙な反論がある。合成が十分に複雑になると、行動レベルでは変換と区別がつかない場合がある。たとえばLLMが100個の既存概念を前例のない仕方で接続し、その出力を見た観察者が「これはパラダイムシフトだ」と判断したとする。内部的にはルールは何も変わっていない——固定された重みの中で組み合わせが生成されただけだ。しかし出力だけを見る限り、それが組み合わせ的創造性の産物なのか変換的創造性の産物なのかは判別できない。Ritchie (2006) が指摘するように、エージェント内部の構造を見れば「ルールは変わっていない」と言えるが、観察者の視点では「ルールが変わったように見える」。つまり「変換的かどうか」は客観的な事実ではなく、どの視点から評価するかに依存する。
そしてもう一つ、忘れてはならない視点がある。人間の創造も過去の部品の再構成ではないのか? Koestlerの bisociation理論は、創造性を「2つ以上の無関係な認知体系の同時活性化」として定義した。Mednickの遠隔連想仮説も、創造性を「遠い要素の組み合わせ」として捉える。もし人間の創造も根本的には組み合わせなのだとすれば、AIと人間の創造性の差は「種類」ではなく「程度」の問題かもしれない。
なお、逆方向の注意もある。拡散モデルが訓練データを記憶して近い画像を再生成してしまう現象が報告されており、「新しいものを狙ったつもりが既存作品に寄りすぎる」リスクもゼロではない。
第1部の結論: Bodenの3分類で整理すると、組み合わせ的・探索的創造性は原理的にYes。変換的創造性は仕組み上保証されないが、その境界は曖昧であり、人間の創造も同様の構造を持つ。
第2部:どうすれば新しいものを出せるのか
なぜ現状では「平均的」に偏るのか——4つの圧力
第1部で「原理的には出せる」と確認した。では、なぜ実際のAI出力は平均的で無難に感じられるのか。それは原理の問題ではなく、以下の4つの圧力による。
圧力A: 学習の頻度バイアス
生成モデルは「それっぽい」確率が高いものを出しやすい。Seq2Seqの会話モデルが”I don’t know”のような安全で平凡な応答を出しがちな問題は古くから指摘されてきた。最尤推定(MLE)は訓練データの頻出パターンを優遇する設計であり、頻出表現・典型構図・ありがちな言い回しが高い確率を持つ。これが組み合わせ的創造性を抑制する——珍しい組み合わせは確率が低いので選ばれにくい。
圧力B: 保守的なデコード
確率分布からどうサンプリングするかも大きく影響する。デコード戦略がテキストの品質と多様性に決定的な影響を与えることは実証されている。
flowchart LR
A["確率分布"] --> B{"デコード戦略"}
B -->|"低温度 / greedy"| C["無難な出力に収束"]
B -->|"高温度 / nucleus"| D["多様で尖った出力も"]
style C fill:#fee,stroke:#c66
style D fill:#efe,stroke:#6a6
低温度・greedy・beam searchは高確率候補に集中するため、探索的創造性が抑制される——潜在空間の未踏領域に到達しにくくなる。
圧力C: RLHFの安全調整
RLHFは有用性の向上や毒性の低減に貢献したが、「安全・有用」方向への最適化が強い場面では、尖った表現や攻めた提案が出にくくなる傾向がある。“失敗しない”、“炎上しない”、“角が立たない”——こうした方向への圧力が、組み合わせと探索の両方を抑制し得る。
ただし、アラインメント手法がすべて一律に創造性を殺すわけではない。Constitutional AIは制約的ルールではなく推論能力によって安全性を担保する設計を取り、DPO(Direct Preference Optimization)は参照モデルとの乖離を制御することで多様性を維持しやすい。圧力Cの強さはアラインメント手法の選択によって変わる。
圧力D: Model Collapse——AI生成データによる分布の縮退
圧力A〜Cが「今あるモデル」の出力を平均に寄せるのに対し、この圧力は次世代モデルに波及する構造的問題だ。Shumailov et al. (2023) は、AI生成コンテンツで再帰的に訓練すると分布の裾(tail)が消失していく現象——Model Collapse——を実証した。AI生成テキストや画像がWeb上に増え続ける現在、将来のモデルの訓練データにそれらが混入することは避けがたい。すると、珍しい表現・少数派のスタイル・極端なアイデアといった分布の端が世代を重ねるごとに削り落とされ、出力はさらに「平均」に収束していく。
要点はこうだ。「新しいものを出せない」のではなく、「出やすい設定になっていない」だけ。ただしModel Collapseについては、個人の設定で完全に解消できる問題ではなく、訓練データの品質管理という業界全体の課題でもある。
新しさを引き出す:圧力ごとの対策
4つの圧力を特定したので、それぞれに対応する打ち手を示す。
圧力Aへの対策: 頻度バイアスを崩す
- 条件を増やして分布を絞る——「いい感じの文章を書いて」ではなく、対象読者・文体・前提条件・NG例・成功の定義を明示する。条件が具体的になるほど「世間の平均」から分布が離れ、頻出パターンの確率優位が崩れる
- 専門データで分布自体を動かす——RAGやLoRAで「世間の平均」ではなく「その世界の分布」にモデルを寄せる。ただし、これらの手法が創造性を直接向上させるという実証研究は限られており、あくまで「分布のシフト」として理解すべきだ
圧力Bへの対策: 探索空間を広げる
- 多案生成→選抜パイプライン——1発勝負で最終出力を求めるのではなく、複数案を生成してから選抜する。「7案出して、互いに思想が違うものにして、最後に尖り順にランキング」のような指示は、低確率だが新規性の高い候補にリーチする手段として合理的だ
- 温度・top-pの調整——使える環境なら、サンプリングパラメータを上げることで探索範囲を直接広げられる。ただしこれは粗い制御であり、温度を上げすぎれば品質が崩壊する
- より原理的なデコード手法——Contrastive Decodingは大モデル(expert)と小モデル(amateur)の出力差分を取ることで、追加学習なしにnucleus samplingやtop-kを上回る多様性と品質の両立を実現する。Typical Samplingは情報理論に基づき、「期待情報量に近い」トークンを選ぶことで、繰り返しを減らしつつ自然さを維持する。温度調整よりも原理的なアプローチだ
- Multi-Agent Debate——複数のLLMエージェントに異なる初期視点を与えて議論させることで、単一エージェントでは到達しにくい多様な出力を引き出せる。ポイントは初期視点の多様性(diversity-aware initialization)であり、同じモデルを複数回呼ぶだけでは均質な推論パスに収束してしまう
圧力Cへの対策: 評価基準を再設定する
- 評価基準を自分の目的関数に置き換える——「一般向けに良いもの」ではなく、「A社の制作進行が1分で理解できる」のように具体的な成功条件を設定する。「一般論禁止」「ケースバイケース禁止」のようなNG制約も有効
- 定番案を先に列挙して避ける指示——「まず典型的な5案を挙げて、次にそれらを避けた5案を出して」。RLHFが寄せた「無難な方向」を明示的に回避させる。ただし、この手法が新規性を定量的に向上させるかは未実証であり、経験則として提示する
- 多様性を維持するアラインメント手法の選択——モデル提供者の側では、DPOのように参照モデルとの距離を制御するアラインメントや、Constitutional AIのように推論ベースで安全性を担保する手法が、RLHFよりも多様性を維持しやすい。利用者としては、これらの手法を採用したモデルを選ぶことが間接的な対策になる
圧力Dへの対策: 訓練データの品質を意識する
- この圧力はユーザー側で直接解消できるものではない。ただし、人間が書いたテキストや自分が撮った写真など、AI生成でないデータをLoRAやRAGの入力に使うことで、自分の利用範囲ではModel Collapseの影響を部分的に回避できる
- 長期的には、訓練データからAI生成コンテンツを検出・除去する手法の発展が業界全体の課題となる
| 圧力 | 対策 | なぜ効くか |
|---|---|---|
| A: 頻度バイアス | 条件の具体化 / RAG・LoRA | 頻出パターンの確率優位を崩す |
| B: 保守的デコード | 多案生成→選抜 / Contrastive Decoding / Typical Sampling / Multi-Agent Debate | 探索空間を広げる・原理的に多様性を確保 |
| C: RLHF安全調整 | 目的関数の再設定 / DPO等の多様性維持型アラインメント | 「無難」方向の引力を外す |
| D: Model Collapse | 非AI生成データの活用 / 業界レベルの品質管理 | 分布の裾の消失を防ぐ |
まとめ
本記事では2つの問いを順に検討した。
問い1: AIは原理的に新しいものを出力できるのか?
Bodenの創造性3分類で整理すると、組み合わせ的創造性(既存要素の新しい組み合わせ)と探索的創造性(既存空間の未踏領域の発見)は原理的に可能だ。ただし合成能力には系統性の限界がある。変換的創造性(概念体系そのものの変革)は仕組み上保証されないが、その境界は曖昧であり、人間の創造も同じ構造を持つ。
問い2: どうすれば新しいものを出せるのか?
実際のAI出力が「平均的」に感じられるのは原理的限界ではなく、4つの圧力——頻度バイアス、保守的デコード、RLHFの安全調整、Model Collapse——による。前3つは条件の具体化・Contrastive DecodingやMulti-Agent Debateによる探索空間の拡大・評価基準の再設定といった打ち手で対処できる。Model Collapseは個人の工夫だけでは解消しきれない構造的課題だが、非AI生成データの活用で影響を部分的に回避できる。
「AIの出力が平均的だ」と感じたら、それはAIの創造性の限界ではなく、圧力を外す設定がまだ足りないサインだと思う。
以上。
References
- Boden, M. A. (2004). The Creative Mind: Myths and Mechanisms (2nd ed.). Routledge.
- Franceschelli, G. & Musolesi, M. (2025). On the creativity of large language models. AI & Society
- Nair, L. et al. (2024). Creative Problem Solving in Large Language and Vision Models. ACL Findings
- Zhang, C. et al. (2017). Understanding deep learning requires rethinking generalization. arXiv:1611.03530
- Brown, T. et al. (2020). Language Models are Few-Shot Learners. arXiv:2005.14165
- Lake, B. & Baroni, M. (2018). Generalization without Systematicity. arXiv:1711.00350
- Kingma, D.P. & Welling, M. (2013). Auto-Encoding Variational Bayes. arXiv:1312.6114
- Ho, J. et al. (2020). Denoising Diffusion Probabilistic Models. arXiv:2006.11239
- Li, J. et al. (2016). A Diversity-Promoting Objective Function for Neural Conversation Models. arXiv:1510.03055
- Holtzman, A. et al. (2020). The Curious Case of Neural Text Degeneration. arXiv:1904.09751
- Ouyang, L. et al. (2022). Training language models to follow instructions with human feedback. arXiv:2203.02155
- Carlini, N. et al. (2023). Extracting Training Data from Diffusion Models. arXiv:2301.13188
- Koestler, A. (1964). The Act of Creation.
- Ritchie, G. (2006). The Transformational Creativity Hypothesis. New Generation Computing
- Veale, T. & Cardoso, F.A. (2020). Leaps and Bounds. New Generation Computing
- Li, X.L. et al. (2022). Contrastive Decoding: Open-ended Text Generation as Optimization. arXiv:2210.15097
- Meister, C. et al. (2022). Locally Typical Sampling. arXiv:2202.00666
- Bai, Y. et al. (2022). Constitutional AI: Harmlessness from AI Feedback. arXiv:2212.08073
- Rafailov, R. et al. (2023). Direct Preference Optimization: Your Language Model is Secretly a Reward Model. arXiv:2305.18290
- Shumailov, I. et al. (2023). The Curse of Recursion: Training on Generated Data Makes Models Forget. arXiv:2305.17493
- Zhu, X. et al. (2026). Demystifying Multi-Agent Debate: The Role of Confidence and Diversity. arXiv:2601.19921