ES|EN|日本語

1. 法律分野におけるAIの実際の普及

法律実務への人工知能の導入は、もはや未来の話ではなく、定着した現実となっている。

その好例が、欧州特許庁(EPO)による最近の取り組みである。同庁は、口頭審理における議事録作成において、AIツールの活用を拡大することを決定した。公式情報によると、2025年に約150件の案件で実施されたパイロットプログラムを経て、このシステムにより以下のことが可能となる。

–  録音データからの自動文字起こし

–  議事録草案の作成を支援する

ただし、EPOが採用したモデルでは、文書の最終的な確認と承認には依然として人間の関与が必要である。

これらのツールは、効率化、コスト削減、そして情報への迅速なアクセスを約束する。

しかし、こうした利点とともに、ますます重要なリスクが浮上している。それは、人工知能の「幻覚」の問題である。

2. ハルシネーションの問題

ハルシネーションとは、AIシステムが、一見もっともらしいが、実際には誤り、不正確、あるいは完全に作り上げられた情報を生成する現象を指す。

法分野において、これは次のような事態を招く可能性がある:

  • 存在しない判例の引用
  • 誤った条文への言及
  • 適用法の誤った解釈
  • 不正確な法律翻訳

人為的なミスとは異なり、これらの回答は極めて説得力のある外観を呈することがあり、検証なしにそれらを信頼してしまうリスクを高める。

AIのハルシネーションは、すでに現実的な法的影響をもたらし始めている。

(1) 米国:存在しない判例と司法制裁

最も象徴的な事例の一つが、Mata vs. Avianca(2023年)事件である。この事件では、弁護士がAIによって生成された存在しない判例を引用した書面を提出した。裁判所は、その主張を退けただけでなく、弁護士に対して金銭的制裁を科した。

AIの利用は、弁護士の検証を行う義務を免除するものではない。

(2)オーストラリア:デロイトと法的報告書におけるハルシネーション

2025年、デロイトはオーストラリア政府向けに報告書を作成しましたが、そこには以下の内容が含まれていた:

    • 存在しない学術的引用
    • 捏造された判例引用

AIによって生成された誤りが確認された後、同社は報酬の一部返還を余儀なくされた。

(3) オーストラリア:弁護士への懲戒処分

別の事例では、ある弁護士が、AIによって生成された判例をその存在を確認せずに提出し、法廷で当該判例を特定できなかったとして懲戒処分を受けた。

(4)日本に関連する事例:日本生命対OpenAI (2026)

日本の事業者にとって特に重要な最近の事例として、日本生命保険相互会社の米国子会社が、米国でOpenAIを提訴した剣を上げることができる。

訴えにおいては、ChatGPTは原告に法的助言を提供し、すでに終結していた訴訟の再開を促したと主張されている。また、根拠のない訴訟書類を多数生成 されていた。

これにより、保険会社には多額の訴訟費用が発生したとのことである。

そのため、日本生命保険会社の米国子会社は、この行為によって生じた損害に対する賠償として約30万ドルを請求するとともに、懲罰的損害賠償として1,000万ドルの支払いを求めている。

この訴訟は、重要な問題を提起する。すなわち、AIシステムは、無許可の弁護士業務に該当する行為を行うことができるのであろうかという問題である。

3. 日本:弁護士法第72条と法務AI

日本では、法分野における人工知能(AI)の利用に関する議論が、最近特に重要性を増している。2026年1月9日、法務省は「弁護士法第72条とAIを活用したリーガルテックサービス」と題する文書を発表し、AIツールと弁護士業務の無資格行使の禁止との関連性について分析した。

日本の弁護士法第72条は、資格を持たない個人や団体が報酬を得て法律サービスを提供することを禁じています。こうした文脈において、同文書はAIに対して禁止的な立場をとるのではなく、契約書のレビューや法的情報の管理といった業務の効率化を図る上でのAIの可能性を認めている。

しかしながら、単なる情報の提供と、法的な助言そのものを区別するための基準を明確にする必要性も強調している。特に、有償関係の有無、具体的な法的紛争や問題の存在、分析の個別化の度合い、およびサービスの監督における弁護士の関与といった要素が挙げられている。

また、同文書は、規制の不明確さが革新的なサービスの開発に対する抑止効果をもたらす可能性があると指摘しており、この分野における法的な予測可能性を強化する必要性を示している。

4. 結論:AI時代の保証人としての弁護士

AIは効率性をもたらすだけでなく、新たな種類の構造的な法的リスクももたらす。

EPOの事例は、重要なのはAIを避けることではなく、人間の監督のもとで適切に統合することにあることを示している。

弁護士の役割は消えていくのではなく、法的に正しいことが、一見妥当に見えるものに置き換えられないように保証する役割として、さらに重要性を増していくとも思える。

 

南智士 (Satoshi Minami)

ヴィラ法律事務所

 

より詳細な情報につきましては下記までご連絡ください。

va@vila.es

 

2026年4月2日