30年の経歴を持つ米国のベテラン弁護士が、裁判所に提出する書類に生成型人工知能(AI)「チャットGPT」を使って判例を引用し、制裁を受ける立場となった。チャットGPTを通じて引用した判例が実際に存在しない「虚偽」であることが判明したためだ。AIが作り出した虚偽情報による副作用が続出する中、専門職従事者もAIの倫理的な使用に相当な注意を払わなければならないと指摘されている。
28日、CNNなどによると、ニューヨーク南部地区連邦地裁のケビン・カステル裁判官は、虚偽の判例が多数含まれた書類を裁判所に提出した30年の経歴を持つスティーブン・シュワルツ弁護士に対する制裁を議論するため、来月8日に公聴会を開くことを明らかにした。カステル氏は、「シュワルツ氏が提出した書類は、偽の司法部の決定及び偽の引用文で満たされていた」とし、「前例がない」と叱責した。
シュワルツ氏は2019年8月、中南米のエルサルバドルからニューヨーク行きのコロンビア航空を利用したロベルト・マタ氏の事件で、マタ氏の弁護を担当した。マタ氏は、機内食運搬用の鉄製のカートに膝をぶつけて負傷したとし、航空会社を相手に訴訟を起こした。
航空会社側は、通常の航空事件の公訴時効(2年)が過ぎたと主張したが、シュワルツ氏は時効とは無関係だとし、大韓航空や中国南方航空など他国の航空会社で発生した類似の事件に対する判例を含む10ページの意見書を提出した。しかし、引用した判例のうち少なくとも6つが虚偽であることが明らかになった。
物議を呼ぶと、シュワルツ氏は25日、「業務を『補完』するためにチャットGPTに助言を求めた」と認めた。チャットGPTに繰り返し当該判例が本物かどうか尋ねたが、そのたびにチャットGPTが「はい」と答え、真偽を疑わなかったと主張した。
イ・チェワン記者 chaewani@donga.com
アクセスランキング