(霧山昴)
著者 角田 美穂子ほか 、 出版 弘文堂
私はまったくAIを使えませんし、今さら利用したくもありません。ところが、この本にはAIの利用で「できること」をしない司法というのは、国民の期待、あるいは国民の信頼を裏切るもの、としています。
さらに、「老犬には新しい芸を仕込めない」ものだが、「老犬にも新しい芸を学ぶ機会を与えること」が非常に重要だとします。うひゃあ、で、でも「老犬」の私には、今さら「新しい芸」を身につける意思も能力もないのです。
裁判官が判決を書くにあたって、AIを使っていいのか、それとも許されないかも論じられています。南米のコロンビア共和国の裁判官が判決文にChatGPTとの「会話」をそのまま記載した(2023年1月30日)ことが話題になっています。判決文を起案するとき、AIを参考にするのは私も許されると考えています。ただし、双方の準備書面を全部インプットして判決文をAIに書かせているのはまずいとされています。私も同じ考えです。その点は、ルーティン的な事件だったらAIにまかせていいのかということでもありますが、この本は消極的です。結局、裁判というのは何のためにやっているのか、という問題だとされています。とても共感を覚えます。
判決文を生成AIに書かせるのは危険が大きい。人の判断が形骸化してしまう危険がある。これは裁判官の能力をむしばんでしまう。そして、AIの判断に対する批判的な判断が訓練されない。
判決をもらった当事者から、「裁判官が判断したと言ってるけれど、AIに書いてもらったんでは?」と言われたとき、裁判の正統性がゆらいでしまうのではないか……。
生成AIをうまく使うためには、法律家としてつちかった経験と知識がそれなりに必要になる。
日本の場合、判決文が全文インターネット上で公開されているわけではないし、裁判の4割は和解で終了しているが、その和解調書は基本的に公表・公開されていない。すると、AI利用には大きな限界があることになる。
イギリスは人口6000万人の国だが、毎年1500万件もの紛争が民事・家事の裁判所に持ち込まれている。これは驚きですね。日本でいう非訟事件も恐らく含まれているのでしょうね、きっと……。それでも、1500万件とは、多いです。
アメリカ・ニューヨークの弁護士がChatGPTが作成した6つの架空の判例を引用した準備書面を裁判所に提出して懲戒処分を受けたことは有名です。AIはそんなことまでしてしまうので、弁護士はAIに頼りきりにならず、さらに深く慎重に検討する必要があります。
GPTには、ハルシネーションと呼ばれている。平気で嘘をつく現象が起りうる。なんとなく正しいような文章があっても、細かく見ると、実は間違っていたりするので、結局、精査する必要がある。人間の手による作業が必要になるので、同じだけの時間がかかってしまう可能性がある。これは、とても疲れることでもあります。
AIは便利だけど、怖いものだと改めて認識しました。
(2025年12月刊。2970円)


