公式発表が引き起こした衝撃

2025年4月、AnthropicはClaudeヘルプセンターに新しいドキュメントを静かに公開した。『Identity verification on Claude』——記者会見も、公式ブログの投稿もなかったが、内容は極めて重要だった。Claudeが一部のユーザーに対して身元確認を求め始めたのだ

簡単に言えば、特定の状況下でClaudeを利用すると、システムが検証ウィンドウを表示し、政府発行の顔写真付き身分証明書(パスポート、運転免許証、または住民票)の提出と、リアルタイムの自撮りによる顔認証を要求する。検証サービスは第三者企業Persona Identitiesが提供し、通常5分以内で完了する。

これは中国の「実名制インターネット」ではなく、アメリカのAI企業が自発的に始めたユーザー選別メカニズムだ。問題は:なぜ今?なぜ彼らが?そして、一般ユーザーにとってこれは何を意味するのか?

ルール説明:どんな場合に検証が求められるか

公式ドキュメントによると、現在身元確認が必要となる主なシーンは以下の通り:

1. 特定機能へのアクセス時

一部の高度な機能や新機能は、身元確認を経ないとロック解除されない可能性がある。Anthropicは具体的な機能を明確に列挙していないが、文脈から推測するに、高頻度APIコール、企業向け機能、または特定の機微なユースケースが含まれる可能性がある。

2. プラットフォーム整合性チェック

「弊社の定期的なプラットフォーム整合性チェックの一環として」——これは公式原文だ。翻訳すれば:Anthropicはランダム、または特定のアルゴリズムに基づいてユーザーを選び検証を行う。目的は、アカウントの背後に実在の人間がいることを確認し、大量登録されたボットやサービス悪用のための偽アカウントではないことを確かめることだ。

3. セキュリティとコンプライアンス要件

アカウントがセキュリティアラートを引き起こした場合(例:異常なログイン場所、怪しい活動パターン)、身元確認はアカウント復旧の必要ステップとなる可能性がある。また、特定の地域からのユーザーにはより厳格な検証要件が課される場合もある。

検証フローの詳細

検証対象に選ばれたユーザーは以下を準備する必要がある:

  • 原本の実物証明書:パスポート、運転免許証、または国民身分証の原本(コピー、スキャン、スマホ画面の写真は不可)
  • カメラ付きデバイス:リアルタイム自撮り用
  • 数分の時間:公式発表では通常5分以内

検証はPersona Identitiesが処理する。これは身元確認を専門とする第三者企業だ。Anthropicは、証明書の写真と自撮り写真はPersonaが管理し、Anthropicのサーバーには保存されないと強調している。検証完了後、Anthropicが受け取るのは「検証合格/不合格」の結果のみで、元画像データではない。

深層分析:なぜAnthropicはこんなことをするのか

表面的にはこれはセキュリティ対策だ。しかし視点を広げると、「悪用防止」より複雑な動機があることがわかる。

1. 規制圧力の必然的な結果

2024-2025年、世界のAI規制状況は根本的に変化した。EU AI法(EU AI Act)が正式に施行され、高リスクAIシステムには追跡可能なユーザー身元メカニズムが求められるようになった。アメリカには連邦レベルの統一AI法規はないが、州レベルの立法が次々と生まれ、議会公聴会が頻繁に開催されている。

こうした背景の中で、ユーザー身元のアーカイブを主体的に構築することは、Anthropicにとって将来のコンプライアンスへの布石となる戦略的選択だ。

さらに重要なのは、Anthropicが企業市場と政府ビジネス(Claude for Government)を積極的に拡大していることだ。「誰がシステムを使用しているか把握している」ことを証明することは、これらの大口契約を獲得するための基本的なハードルとなる。

2. コスト管理の厳しい現実

大規模モデルの学習には多額の資金がかかるが、運用にも同様に高コストがかかる。APIコールの計算コスト、カスタマーサポートの人件費、悪用対策の運用コスト——これらはすべて「無効ユーザー」と直接関連している。

実名検証は天然のハードルとなる。真にサービスを利用したい人を止めることはないが、大量登録のゾンビアカウントや無料枠の搾取、ブルートフォース攻撃のコストを大幅に上昇させる。Anthropicにとって、こうしたユーザーを選別し排除することは、リソースを支払い意欲が高く健全な利用行動を示す実ユーザーに集中できることを意味する。

3. 責任境界のリスク管理

AIが偽情報生成、ディープフェイク作成、サイバー攻撃支援に悪用される際、「誰がやったかわからない」はもはや有効な免責事由にならない。身元確認を通じて、Anthropicは法的に少なくとも「合理的な措置を講じてユーザー身元を確認した」ことを証明できる。

これはリスクの移転だ。問題が発生した際、Anthropicは検証記録を提示し、これが完全匿名の悪用者ではなく、身元確認済みの実在個人であることを示せる。これは将来の訴訟で極めて重要な可能性がある。

4. ビジネスモデルの潜在的な転換

無料サービスの時代は終わりつつある。OpenAI、Anthropic、Google——主要プレーヤーすべてが無料枠を縮小し、ユーザーに有料サブスクリプションへの移行を促している。

身元確認はこのトレンドと高度に整合している。実在の身分証明書を提供する意欲のあるユーザーは、有料顧客に転換される可能性が高い。一方、メールさえ確認したくないユーザーは、その生涯価値(LTV)はほぼゼロである。ビジネスの観点から見れば、身元確認でユーザーを選別することは、顧客獲得コスト(CAC)を最適化することなのだ。

グレーゾーン:閑魚、淘宝網での「身分取引」

プラットフォームがアクセスを厳格化するたびに、地下経済はすぐに需要の隙間を埋める。Claudeの身元確認要件が導入されて以来、閑魚、淘宝網などのプラットフォームでは関連「サービス」が登場し始めている。

見かける広告

  • 「Claude代検証、パス保証」
  • 「Claude Proアカウント、実名済み、すぐに使用可能」
  • 「海外身元認証サービス、Claude、OpenAI対応」

その裏の真実

これらの「サービス」は大きく分けて以下のカテゴリーに分かれる:

第一類:身元の盗用

闇市場で購入した個人情報(氏名、身分証番号、証明書写真)を利用し、ディープフェイク(Deepfake)技術でリアルタイム自撮りを生成して検証システムを突破する。こうしたサービスのコストは最も低いが、購入者のリスクは最も高い——使用しているアカウントは本質的に別の実在人物に紐付いており、その人物が身元の盗用に気づいた場合、またはプラットフォーム側が異常を察知した場合、アカウントは即座に停止され、法的問題に発展する可能性もある。

第二類:共有/転売アカウント

実在の身元で検証済みのアカウントを複数人で共有したり、転売したりする。こうしたアカウントの寿命は通常短い。Anthropicの異常検知システムは、複数デバイス、複数地点からのログインパターンを識別し、二次検証をトリガーするか、または即座にアカウントを停止する。

第三類:虚偽の約束

最悪のケースは、お金を支払っても相手に検証を完了する能力がないことだ。Anthropicの検証システムは易しい相手ではなく、Personaの不正防止技術には生体検知、証明書偽造チェック、生体特徴マッチングなどの多重関門が含まれる。多くの「代行検証」サービスは運任せであり、失敗すると顧客をブロックする。

なぜこれらのサービスを避けるべきか

法的リスク:他者の個人情報を使用してオンラインサービスに登録することは、ほとんどの法域で身元詐欺に該当する。このアカウントが違法活動に悪用された場合、紐付けられた身元情報は無実の第三者を指し、実際の支配者であるあなたは発覚次第、法的追及を受けることになる。

セキュリティリスク:「代行検証」サービスを提供する人はあなたのアカウント情報を必要とし、さらにはあなた自身の身分証明書を要求する場合もある(「マッチング」のためだと主張して)。これはあなたが信頼できない第三者に機密情報を漏洩することを意味し、こうした情報はさらに転売されたり、他の詐欺行為に悪用されたりする可能性がある。

経済的リスク:購入したアカウントはいつでもAnthropicに検知され停止される可能性がある。投入した時間、データ、さらには有料サブスクリプション料もすべて無駄になる。

倫理的リスク:法的・セキュリティ的リスクを無視しても、こうしたサービスを購入することは、身元盗用と詐欺に基づく闇の産業チェーンを支持することになる。

見落とされている真実:Claudeの「知能低下」とサービス品質

身元確認を議論する際、ほとんどの人が見落としているより深い問題がある:身分証明書の提出や、場合によっては追加費用を支払って検証を突破する労力を費やしても、得られるClaudeはもはや当初のClaudeではないかもしれない

業界にはこうした言い伝えがある。Claudeの「知能」は過去数ヶ月で約40%低下し、現在はピーク時の60%程度に留まっているという。公式データは欠如しているが、ユーザーのフィードバックと実際の体験から見れば、根拠のない話ではない。

感じている変化

  • 創造性の低下:初期のClaudeは飛躍的な連想ができ、予想外の視点を提示できた。今の返答はより「安全」で、テンプレート化されている。
  • 文脈理解能力の減弱:長い対話で重要情報を見失うケースが増えている。
  • 拒否率の上昇:グレーゾーンの依頼に対し、Claudeは以前よりもユーザーの真意を理解しようとせず、直接拒否する傾向が強まっている。
  • コード品質の変動:プログラミング支援シーンでは、生成されたコードは依然として動作するが、アーキテクチャの設計感と最適化の程度が明らかに低下している。

なぜ「知能低下」するのか

いくつかの可能な理由がある:

アライメント税(Alignment Tax):モデルをより「安全」にし、有害なコンテンツを減らすため、Anthropicは学習段階または推論段階でより厳格なアライメント制約を課している可能性がある。こうした制約の代償は、しばしば創造性と柔軟性の一部を犠牲にすることだ。

コスト最適化:推論コストはモデルの複雑さと直接関連する。Anthropicがコスト管理のためにバックエンドで「軽量版」モデルを使用している場合(特に無料ティアや低価格ティアで)、ユーザーが感じる品質低下は説明がつく。

規模拡大の副作用:ユーザー基数の爆発的増加は、より広範なユースケース分布を意味する。「平均ユーザー」にサービスを提供するために、モデルはより中庸的で保守的に調整された可能性があり、早期の技術ユーザー向け最適化時の鋭さを失った。

身元確認の皮肉:Claudeを使用するために中古身分を購入し、検証システムを迂回しなければならないとき、得られるのは質が低下した製品だ。これは二重の損失——リスクを冒しながら、相応の価値も得られない。

結論:私たちはどんな分岐点に立っているのか

Claudeの実名検証新ルールは、表面的には技術とセキュリティの議題だが、本質的にはAI業界が「野蛮な成長」から「規範的な運営」へと移行する縮図である。

ユーザーにとって:自由と利便性は安全とコンプライアンスに譲りつつある。これはClaude特有のトレンドではなく、業界全体の方向性だ。この変化に適応することは、強力なAIツールの使用が、実在の身元開示とますます結びついていることを受け入れることを意味する。

業界にとって:身元確認は両刃の剣だ。悪用を効果的に抑制できる一方、使用ハードルを上げ、一部のユーザー(特に身分証明書の取得が困難な地域や、プライバシー保護ニーズが強いユーザー)を排除する。この排除が公正か、AIの恩恵の不平等な分配を招くかは、引き続き注目すべき議題だ。

グレーマーケットにとって:需要が存在する限り、迂回メカニズムも存在する。しかし、この猫と鼠のゲームのコストは上昇している——プラットフォーム側の検知技術は進化し、規制機関の介入は深まり、ユーザーが直面するリスクは高まっている。

最後に、最も実際的な問題に戻ろう。閑魚や淘宝網で「代行検証」サービスの購入を検討しているなら、三思せよ。購入しているのはアカウントだけではなく、いつでも爆発する可能性のある法的リスク、いつでも取り上げられる可能性のある一時的なアクセス権、そしてもはや想像ほど強力ではないかもしれないAIなのだ。

この業界で、真に希少なのはハードルを迂回するテクニックではなく、明確な認識とリスクへの敬遠である。


参考リンク