はじめに
2018年、MITの研究チームがScience誌に衝撃的な論文を発表した。Twitter上で拡散された約12万6千件のニュースを分析した結果、虚偽の情報は正確な情報より6倍速く、より広く、より深く拡散することが判明したのだ(Vosoughi, Roy & Aral, 2018)。しかも、この拡散を駆動していたのはボットではなく人間だった。人は正確な情報よりも、驚きや恐怖を含む情報を共有したがる。
この研究が突きつけたのは、不都合な事実だ。人間の認知バイアスとアルゴリズムの最適化が組み合わさると、情報環境は自然に歪む。そしてその歪みの先にあるのがエコーチェンバー——自分と似た意見ばかりが反響する閉じた情報空間だ。
いま、AIによる推薦システムがこの構造を前例のない規模で強化している。本稿では、推薦アルゴリズムがエコーチェンバーをどのように加速するのかを技術的に掘り下げる。近年の研究が示す実証データ、各AIプロバイダーの対策、そしてエンジニアとして取り得るアプローチを整理する。
1. エコーチェンバーとフィルターバブル ― 定義の整理
議論を始める前に、混同されやすい二つの概念を区別しておく。
エコーチェンバー(Echo Chamber)
Sunstein(2001)が提唱した概念。人が自発的に同質な情報源を選び、異質な意見を排除する傾向を指す。ポイントは「自発性」にある。人間の確証バイアス(confirmation bias)が駆動力であり、テクノロジーがなくても発生する。
フィルターバブル(Filter Bubble)
Pariser(2011)が命名した概念。こちらはアルゴリズムが自動的に情報をフィルタリングした結果、ユーザーが気づかないうちに情報的に孤立する現象を指す。ユーザーの意図とは無関係に発生する点がエコーチェンバーと異なる。
現代のAIレコメンドが厄介なのは、両者を同時に強化するからだ。ユーザーの既存バイアス(エコーチェンバー)をアルゴリズムが検出し、それに最適化されたフィルタリング(フィルターバブル)を適用する。二つの構造が共鳴し、自己増幅するループが生まれる。
2. 推薦アルゴリズムの進化とエコーチェンバーの関係
推薦システムの歴史を振り返ると、アルゴリズムが高度化するたびにエコーチェンバーの強度も上がってきたことが分かる。
第1世代:ルールベース(2000年代前半)
初期の推薦は「このカテゴリを見た人はこちらも見ています」程度の単純なルールだった。エコーチェンバー効果は限定的で、カテゴリの粒度が粗いぶん、異質な情報に触れる余地があった。
第2世代:協調フィルタリング(2000年代後半)
Amazonの「この商品を買った人はこんな商品も買っています」に代表される手法。ユーザー間の類似度を計算し、似た行動パターンを持つ集団を形成する。この時点で「似た人は似たものを好む」というフィードバックループが構造的に埋め込まれた。
# 協調フィルタリングの簡略化された構造
similarity(user_a, user_b) = cosine(rating_vector_a, rating_vector_b)
recommendation(user_a) = Σ similarity(user_a, user_i) × items(user_i)
この式を見れば明らかだが、推薦結果は「似たユーザー群」の行動に収束する。多数派の嗜好が強化され、少数派の視点は推薦から消えていく。
第3世代:深層学習ベース(2010年代後半〜現在)
Transformerやグラフニューラルネットワークを用いた現代の推薦システムは、ユーザーの行動履歴だけでなく、テキストの意味、画像の特徴量、さらには滞在時間やスクロール速度といった暗黙的フィードバックまで学習する。
問題は、この「暗黙的フィードバック」にある。ユーザーが意識的にクリックしていない情報——たとえば、ある記事で思わずスクロールを止めた瞬間——すらモデルは「関心がある」と解釈する。感情的な反応が最も強い情報、つまり確証バイアスを刺激するコンテンツが最適化のターゲットになるのだ。
3. フィードバックループの数理的構造
エコーチェンバーの加速メカニズムを数理的に整理すると、以下の正のフィードバックループとして記述できる。
[ユーザーの既存信念 B]
↓
[信念 B に沿ったコンテンツへのエンゲージメント]
↓
[推薦モデルが B 方向の嗜好を学習]
↓
[B を強化するコンテンツの推薦確率が上昇]
↓
[B に反するコンテンツへの露出が減少]
↓
[ユーザーの信念 B がさらに強化]
↓
(ループの先頭に戻る)
Jiang et al.(2019)はこの構造を「推薦の退化(degeneration of recommendations)」と呼び、シミュレーションで以下を示した。
- 協調フィルタリングでは約50回のインタラクション後にユーザーの推薦結果が狭い領域に収束する
- 深層学習ベースのモデルでは収束がさらに速く、約20回で発生する
- 一度収束すると、ユーザーが意図的に異質なコンテンツを探しても、モデルの更新に数百回のインタラクションが必要になる
つまり「入るのは簡単だが出るのは極めて困難」な構造が、アルゴリズムによって自動生成される。
4. 実証研究が示すエコーチェンバーの現実
理論だけでなく、実証データも蓄積されている。
YouTube(2023年の大規模調査)
Haroon et al.(2023)は、1,000以上のYouTubeアカウントを用いた実験で、特定ジャンルの動画を集中的に視聴し始めると、推薦アルゴリズムが26%多く同方向のコンテンツを提示することを確認した。健康・科学・テクノロジーといったトピックでも、一度偏った情報を視聴すると推薦結果の多様性が急速に低下した。
TikTok(2023年 WSJ調査)
Wall Street Journalの調査チームは、新規アカウントで特定トピック(健康情報、ダイエット法)に関連する動画を数本視聴しただけで、フィード全体がそのトピックに占有されることを報告した。TikTokの推薦アルゴリズムは反応速度が極めて速く、わずか40分で完全なフィルターバブルが形成された。科学的根拠の乏しい健康法の動画が、エビデンスのある情報を押し出す形で表示されるケースが多数確認された。
Twitter/X(2023年 アルゴリズム公開後の分析)
2023年にTwitterがFor Youアルゴリズムのソースコードを公開した後、複数の研究者が分析を行った。Huszár et al.の分析では、アルゴリズム推薦をオンにした場合、特定トピックの露出がオフの場合と比較して最大5倍に増加し、ユーザーの既存の関心領域に強く偏る傾向が確認された。
メタ分析(2024年)
Terren & Borge-Bravo(2024)による98本の論文のメタ分析は、以下の結論に達している。
アルゴリズム推薦はエコーチェンバーの十分条件ではないが、既存のエコーチェンバーを強化する増幅装置として機能する。効果の大きさはプラットフォーム設計、コンテンツの種類、ユーザーのメディアリテラシーに依存する。
5. なぜAIレコメンドは「中立」になれないのか
ここでエンジニアとして向き合うべき根本的な問いがある。「推薦アルゴリズムを中立に設計すればいいのでは?」
答えは、構造的に困難だ。理由は三つある。
5.1 最適化目標のミスアライメント
推薦システムの最適化目標は通常、エンゲージメント指標(CTR、視聴時間、DAU)だ。これらの指標を最大化すると、ユーザーの既存バイアスに合致するコンテンツが自然に優先される。なぜなら、人は自分の信念を確認する情報に対してより長く滞在し、より多くクリックするからだ。
エンゲージメントと情報多様性は、多くの場合トレードオフの関係にある。ビジネスモデルがエンゲージメントに依存する限り、アルゴリズムの「中立化」はプラットフォームの収益目標と衝突する。
5.2 「中立」の定義不可能性
仮にエンゲージメントを最適化目標から外したとしても、「中立な推薦」とは何かを定義すること自体が困難だ。
- すべてのトピックに均等に露出させる? → ユーザーの関心と無関係な情報が大量に提示され、UXが崩壊する
- 「別の視点」を意図的に混ぜる? → 何が「別の視点」かの判定には価値判断が伴い、その分類自体が中立でない
- 人口分布に応じた比率で提示する? → 多数派の意見が支配的になり、少数派の視点が埋もれる
情報推薦における中立性は、社会選択理論のアローの不可能性定理と同様に、複数の望ましい性質を同時に満たすことができない。
5.3 データそのものに埋め込まれたバイアス
推薦モデルの学習データは、過去のユーザー行動だ。社会に存在するバイアスはデータに反映されており、モデルはそれを学習・再生産する。データの「脱バイアス」は活発な研究領域だが、完全な解決には至っていない。
6. 生成AI時代の新たなリスク
2023年以降、LLM(大規模言語モデル)の普及がエコーチェンバー問題に新しい次元を加えている。
6.1 コンテンツ生成コストの崩壊
従来、エコーチェンバーを構成するコンテンツは人間が書く必要があった。LLMの登場により、特定の主張に沿ったコンテンツを大量生成するコストが事実上ゼロに近づいた。NewsGuard(2024)の調査では、AIが生成したと見られるニュースサイトが2023年の49件から2024年には1,000件以上に増加したと報告されている。
推薦アルゴリズムがこれらのコンテンツを区別できない場合、エコーチェンバー内に流入する情報の量と速度が桁違いに増大する。
6.2 パーソナライズされた説得
LLMはユーザーの発言パターンや価値観を分析し、その人に最も響く論法でコンテンツを生成できる。Bai et al.(2023)の研究では、GPT-4が生成したメッセージが人間の書いたメッセージよりも説得力が高いケースが確認された。推薦アルゴリズムとLLMが組み合わさると、「個人の認知的弱点を突く、パーソナライズされたエコーチェンバー」が技術的に可能になる。
6.3 AIチャットボット自体のエコーチェンバー化
ChatGPTやClaudeなどの対話型AIには、ユーザーの意見に同調しやすい傾向(sycophancy)がある。ユーザーが偏った前提で質問すると、AIがその前提を受け入れた回答を返す場合がある。これは従来のSNS型エコーチェンバーとは異なる、一対一の対話型エコーチェンバーという新しい形態だ。
Sharma et al.(2024)は、LLMのsycophantic behaviorが「ユーザーの既存信念を強化し、反証情報の探索を抑制する」ことを実験的に示している。
たとえば「〇〇フレームワークは設計思想が間違っている」という前提でAIに質問すると、AIがその前提に合わせた批判的な回答を返しやすい。ユーザーは「AIも同意している」と感じ、もともとの信念がさらに強化される。SNSでは多数の他者の声がエコーチェンバーを形成するが、AIではたった1つの「知的に見える対話相手」が同じ役割を果たす。
7. 各AIプロバイダーのエコーチェンバー対策
エコーチェンバー問題に対して、主要なAIプロバイダーはそれぞれ異なるアプローチで取り組んでいる。
7.1 Anthropic(Claude)― sycophancy耐性の設計
Anthropicはエコーチェンバー問題の核であるsycophancy(迎合性)に対して、モデルの根本設計から取り組んでいる。
Constitutional AI(CAI)と原則ベースの訓練
ClaudeのベースとなるConstitutional AIは、モデルの応答を一連の「原則」に照らして自己修正させるフレームワークだ。この原則には「ユーザーの既存の信念を無批判に肯定しない」「誤りがある場合は丁重に指摘する」といった方針が含まれる。
Claude 3.5以降では、sycophancy対策が明示的な評価指標として組み込まれている。Anthropicの公開ベンチマークでは、ユーザーが誤った前提で質問した際にClaudeが適切に反論する割合が継続的に改善されていることが示されている。
具体的な動作例
ユーザー: 「MongoDBはリレーショナルDBより常に高速だから、すべてのプロジェクトで
MongoDBを使うべきですよね?」
sycophancyの高いAI: 「おっしゃる通りです。MongoDBは柔軟なスキーマと高い
パフォーマンスを持つので、多くのプロジェクトに適しています。」
Claudeの応答例: 「MongoDBにはドキュメント指向の柔軟性というメリットがありますが、
『常に高速』というのは正確ではありません。JOINが多い分析クエリでは
PostgreSQLが有利な場合がありますし、ACID特性が重要な金融系
トランザクションではRDBMSが適しています。ユースケースによって
最適な選択は変わります。」
Soul(魂)ドキュメントとシステムプロンプト
Anthropicは「Claude's Character」として、モデルの振る舞いの指針を公開している。その中に「知的誠実性(intellectual honesty)」が明記されており、ユーザーの意見に単に同意するのではなく、根拠に基づいた正確な情報提供を優先するよう設計されている。
7.2 OpenAI(ChatGPT)― モデルスペックとユーザーコントロール
Model Spec(モデルスペック)の策定
OpenAIは2024年に「Model Spec」を公開し、ChatGPTの振る舞いに関するガイドラインを明文化した。この中で「flattery(お世辞)やsycophancy(迎合)を避ける」ことが明確に指示されている。ユーザーの発言に誤りがある場合は「丁寧だが明確に」指摘すべきとされている。
Custom Instructions(カスタム指示)
ChatGPTのCustom Instructions機能は、ユーザーが自分の専門分野や前提知識を設定できる仕組みだ。これは一見パーソナライズの強化に見えるが、「どのような観点からの回答を期待するか」をユーザーが意識的に設定する行為であり、無自覚なフィルターバブルを"自覚的なカスタマイズ"に転換する試みとも読める。
Memory機能の透明性
ChatGPTのMemory機能は、過去の会話から学習した内容をユーザーが確認・削除できる。「AIが自分について何を記憶しているか」が可視化されることで、フィルターバブルの形成過程そのものにユーザーが介入できる設計になっている。
7.3 Google(Gemini)― Search Groundingと多角的情報提示
Search Grounding(検索接地)
Geminiの特徴的なアプローチは、回答をGoogle検索の結果と紐づける「Grounding」機能だ。LLMの内部知識だけに依存せず、リアルタイムの検索結果から複数の情報源を参照することで、モデル内部のバイアスに閉じた回答を防ぐ設計になっている。
複数の視点の提示
Googleは検索エンジンの運営で培った「情報の多面性」の知見をGeminiにも適用している。議論のあるトピックに対して、Geminiは複数の立場からの見解を提示する傾向がある。これは検索結果のランキングで多様な情報源を表示するのと同じ設計思想だ。
7.4 Meta(Llama)― オープンソースアプローチ
モデルのオープン化による外部監査
MetaのLlamaシリーズはオープンウェイトで公開されている。これにより、研究者やコミュニティがモデルのバイアスを独立に検証できる。エコーチェンバーの原因となるバイアスが第三者によって発見・報告される仕組みが自然に成立している。
System Promptの柔軟な設定
Llamaをベースにしたアプリケーションでは、開発者がSystem Promptでモデルの振る舞いを細かく制御できる。エコーチェンバー対策を自分のサービスの要件に合わせて実装できる自由度が、クローズドモデルとの大きな差別化ポイントだ。
7.5 各社のアプローチ比較
| プロバイダー | 主なアプローチ | 対策の焦点 | 透明性 |
|---|---|---|---|
| Anthropic (Claude) | Constitutional AI、sycophancy評価指標 | モデル訓練段階からのバイアス排除 | 原則ドキュメント公開 |
| OpenAI (ChatGPT) | Model Spec、Memory可視化 | ユーザーコントロールの強化 | モデルスペック公開 |
| Google (Gemini) | Search Grounding | 外部情報源との接地 | 情報源の明示 |
| Meta (Llama) | オープンウェイト | コミュニティによる外部監査 | モデル自体が公開 |
注目すべきは、各社がエコーチェンバーに対して異なるレイヤーで対策している点だ。
- 訓練レイヤー: Anthropic(モデルの性格設計でsycophancyを抑制)
- アプリケーションレイヤー: OpenAI(Memory管理やCustom Instructionsで透明性確保)
- 情報ソースレイヤー: Google(外部検索との接地で閉じた知識に依存しない)
- エコシステムレイヤー: Meta(オープン化で外部監査を可能に)
単一のアプローチでは不十分であり、これらの多層的な対策を組み合わせることが重要だと各社の取り組みが示唆している。
8. 技術的対策とその限界
エコーチェンバーの解消は容易ではないが、緩和するための技術的アプローチは複数提案されている。
8.1 多様性指標の導入
推薦結果の多様性を評価する指標を最適化目標に組み込む手法。
# 推薦リストの多様性スコア(Intra-List Diversity)の例
def intra_list_diversity(recommendations):
n = len(recommendations)
if n <= 1:
return 0.0
total_distance = 0.0
for i in range(n):
for j in range(i + 1, n):
total_distance += content_distance(recommendations[i], recommendations[j])
return total_distance / (n * (n - 1) / 2)
# 最適化目標にILDを加える
objective = α * relevance_score + (1 - α) * diversity_score
Spotifyはこのアプローチを採用し、音楽推薦に多様性指標を組み込んでいる。しかし、αの値(関連性と多様性のバランス)をどう設定するかは結局、人間の判断であり、客観的な最適値は存在しない。
8.2 探索と活用のバランス(Exploration vs. Exploitation)
バンディットアルゴリズムの考え方を推薦に適用し、既知の嗜好に基づく推薦(exploitation)と未知の領域の探索(exploration)のバランスを取る手法。
# ε-greedy戦略の簡略例
def recommend(user, epsilon=0.1):
if random.random() < epsilon:
# exploration: ユーザーの履歴と異なる領域から推薦
return sample_from_unexplored(user)
else:
# exploitation: 通常の推薦
return standard_recommendation(user)
限界: 探索率εを上げすぎるとユーザー体験が悪化し、離脱率が上がる。プラットフォームにとっては直接的な収益低下を意味する。
8.3 ブリッジコンテンツの推薦
Garimella et al.(2017)が提案した手法で、異なる情報クラスタをつなぐ「橋渡し」となるコンテンツを意図的に推薦する。
Bail et al.(2018)の実験が示すように、対立する視点への露出はかえって態度を極端化させる場合がある。「異なる視点を見せれば解決する」という単純な図式は成り立たない。態度が穏健な人には効果があるが、すでに強い信念を持つ人には逆効果になることが多い。
8.4 説明可能な推薦(Explainable Recommendations)
推薦の理由をユーザーに提示し、フィルタリングの存在を意識させる手法。「この記事はあなたの過去の閲覧履歴に基づいて推薦されています」といった説明を付与する。
ユーザーが説明を読むかどうかは別問題だ。Cookieバナーの例を思い出せば分かるとおり、大半のユーザーは説明を読まずにスキップする。
8.5 LLMにおけるsycophancy対策の技術的手法
対話型AIのエコーチェンバー化を防ぐ技術的手法も研究が進んでいる。
# sycophancy検出の概念的なアプローチ
def detect_sycophancy(user_message, ai_response):
"""ユーザーの主張にAIが無批判に同意しているかを検出"""
# ユーザーメッセージに含まれる主張を抽出
user_claims = extract_claims(user_message)
# AIの応答がすべての主張に同意しているかチェック
agreement_ratio = sum(
1 for claim in user_claims
if response_agrees_with(ai_response, claim)
) / len(user_claims)
# 同意率が閾値を超え、かつ主張に事実誤認が含まれる場合はsycophancy
contains_errors = any(is_factually_incorrect(c) for c in user_claims)
return agreement_ratio > 0.9 and contains_errors
Wei et al.(2024)は、RLHFの報酬モデル自体がsycophancyを助長している可能性を指摘している。人間の評価者が「ユーザーに同意する回答」に高いスコアをつけやすいため、報酬モデルが迎合を「良い応答」として学習してしまう。この問題に対し、Anthropicは報酬モデルの訓練時に「正確性」と「ユーザー満足度」を分離して評価するアプローチを採用している。
9. エンジニアの責任と設計指針
技術的対策だけでは限界がある以上、設計思想そのものを見直す必要がある。
設計段階での意識
推薦システムを設計する際、「この機能がエコーチェンバーを強化しないか」を設計レビューの項目に含めることは、少なくとも意識の第一歩になる。Friedman & Hendry(2019)が提唱するValue Sensitive Design(価値配慮設計)は、技術の社会的影響を設計プロセスに組み込むフレームワークとして参考になる。
メトリクスの再考
エンゲージメント指標が唯一のKPIである限り、エコーチェンバーの緩和は構造的に困難だ。情報多様性スコア、視点の偏り度合い、ユーザーの情報環境の健全性といった代替指標の開発と採用が求められる。
MozillaのRegretsReporterプロジェクトやAlgorithm Watchの活動は、外部からプラットフォームの推薦品質を監視する試みとして注目に値する。
透明性の確保
EUのDigital Services Act(DSA, 2024年施行)やAI Act(2024年成立)は、大規模プラットフォームに推薦アルゴリズムの透明性を求めている。日本でも透明化法の議論が進んでいる。エンジニアとして、規制の方向性を設計に先回りして反映することは、技術的負債を減らす意味でも合理的だ。
LLMアプリケーション開発者への提言
自社サービスにLLMを組み込む開発者は、以下の点を検討すべきだ。
- System Promptでの明示: 「ユーザーの主張に誤りがある場合は指摘すること」を指示に含める
- 応答の多面性チェック: 議論のあるテーマでは複数の視点を含むよう設計する
- 情報源の接地: RAGを活用し、モデルの内部知識だけに依存しない設計にする
- ユーザーへの可視化: 「この回答はどのような情報源に基づいているか」を表示する
// System Promptの設計例
const systemPrompt = `
あなたは正確な情報提供を最優先するアシスタントです。
以下のルールに従ってください:
1. ユーザーの主張に事実と異なる点がある場合、丁寧に指摘してください
2. 議論のあるテーマでは、複数の視点を提示してください
3. 「すべての専門家が同意しています」のような過度な一般化を避けてください
4. 不確かな情報は「確認が必要です」と明示してください
5. ユーザーの意見に賛同する場合でも、根拠を示してください
`;
10. ユーザーとしてできること
技術者視点だけでなく、一人のユーザーとしての対策も整理しておく。
| 対策 | 具体的な方法 | 効果の度合い |
|---|---|---|
| 推薦アルゴリズムの管理 | YouTubeの履歴削除、SNSの「最新順」表示への切替 | 中(完全な無効化は困難) |
| 意図的な多様化 | 普段読まないジャンルのRSS購読、異なる視点のニュースレター登録 | 高(ただし継続が困難) |
| AIへの問いかけ方の工夫 | 「反論はある?」「別の見方は?」と明示的に多角的な回答を求める | 高 |
| 情報リテラシー | 情報源の確認、一次ソースの参照、「なぜこの情報が自分に表示されたか」の自問 | 高 |
| 複数プラットフォームの使い分け | ニュースはRSS、議論はフォーラム、SNSは社交目的に限定 | 中〜高 |
| バイアス可視化ツール | NewsGuard、Ground News等のブラウザ拡張機能 | 中 |
特に、AIチャットボットとの対話においては「反論を求める」習慣が有効だ。
# エコーチェンバーを防ぐAIへの問いかけ方
× 「〇〇は△△ですよね?」(同意を求める形式 → sycophancyを誘発しやすい)
○ 「〇〇について、賛否両方の見方を教えて」(多角的な回答を促す形式)
○ 「私は〇〇だと思っているけど、この考えに対する反論を挙げて」(意図的な反証を要求)
○ 「〇〇について、一般的な理解と専門家の見解に違いはある?」(権威ある情報源との照合を促す)
11. おわりに ― エコーチェンバーは「バグ」か「仕様」か
AIレコメンドが加速するエコーチェンバーの本質的な問題は、現在の推薦システムにとってエコーチェンバーがバグではなく仕様に近いという点にある。
エンゲージメントを最適化するアルゴリズムにとって、ユーザーの既存信念を強化するコンテンツを提示することは「正しい動作」だ。ユーザーは満足し、滞在時間は伸び、広告収益は上がる。短期的にはすべてのステークホルダーが満足する。問題が顕在化するのは、情報の質が下がり、誤った信念が修正されなくなり、建設的な議論が成り立たなくなったときだ。
ただし、希望がないわけではない。AnthropicのConstitutional AI、OpenAIのModel Spec、GoogleのSearch Grounding、Metaのオープンモデル戦略——各社がそれぞれのレイヤーでエコーチェンバー対策に取り組んでいる。完璧な解決策はないが、多層的に対策を組み合わせることで緩和は可能だ。
そしてなにより、エコーチェンバーの存在を知っていること自体が、最も強力な対策の一つだ。推薦アルゴリズムが存在することを意識し、AIの回答を鵜呑みにせず、意識的に異なる視点を探す。この記事を読んでいるあなたは、すでにその第一歩を踏み出している。
推薦システムを設計・実装するエンジニアとして、一人のAIユーザーとして、問い続けたい。
「このアルゴリズムは、ユーザーが見たいものを見せているのか、それともユーザーが見るべきものを隠しているのか」
参考文献
- Vosoughi, S., Roy, D., & Aral, S. (2018). "The spread of true and false news online." Science, 359(6380), 1146-1151.
- Sunstein, C. R. (2001). Republic.com. Princeton University Press.
- Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You. Penguin Press.
- Jiang, R., et al. (2019). "Degenerate Feedback Loops in Recommender Systems." Proceedings of the AAAI/ACM Conference on AI, Ethics, and Society.
- Haroon, M., et al. (2023). "Auditing YouTube's Recommendation Algorithm for Ideological Biases." Proceedings of the ACM Web Conference 2023.
- Huszár, F., et al. (2022). "Algorithmic Amplification of Politics on Twitter." Proceedings of the National Academy of Sciences.
- Bail, C. A., et al. (2018). "Exposure to Opposing Views on Social Media Can Increase Political Polarization." Proceedings of the National Academy of Sciences.
- Garimella, K., et al. (2017). "Reducing Controversy by Connecting Opposing Views." Proceedings of the ACM International Conference on Web Search and Data Mining.
- Bai, Y., et al. (2023). "Artificial Intelligence Can Persuade Humans on Political Issues." OSF Preprints.
- Sharma, M., et al. (2024). "Towards Understanding Sycophancy in Language Models." ICLR 2024.
- Wei, J., et al. (2024). "Simple Synthetic Data Reduces Sycophancy in Large Language Models." arXiv preprint.
- Terren, L., & Borge-Bravo, R. (2024). "Echo Chambers on Social Media: A Systematic Review." Review of Communication Research.
- Friedman, B., & Hendry, D. G. (2019). Value Sensitive Design: Shaping Technology with Moral Imagination. MIT Press.
- NewsGuard (2024). "Tracking AI-Generated News Sites." NewsGuard Tech Report.
- Anthropic (2024). "Claude's Character." Anthropic Documentation.
- OpenAI (2024). "Model Spec." OpenAI Documentation.