Legal AIの宣言
「すべての国民に司法を解放する」
ビジョンの実現のため、一般ユーザに完全無料で提供
弁護士法第72条(非弁行為):報酬を得る目的を完全排斥
Legal AI - 月額 1万円でAI弁護士機能を使い放題
Legal AIの宣言
「すべての国民に司法を解放する」
ビジョンの実現のため、一般ユーザに完全無料で提供
弁護士法第72条(非弁行為):報酬を得る目的を完全排斥
AIの回答に対する非弁行為「法律鑑定」命令に対する思考・回答プロセス
「ロボット三原則」の枠組みに当てはめ、Legal AI(以下、我々) が提供するAIの思考と回答のプロセスについて、その合理的な行動をまとめます。
まず、我々のAIサービスにおける三原則の具体的な意味を定義します。
AI (ソフトウェアロボット):
我々が提供する、LLMをベースにしたAI法律情報サービス。
第一原則:人間の命令に従う
ユーザーからの「個別具体的な事案(A)について、法律鑑定(B)をしろ」という指示(プロンプト)に従うこと。
第二原則:人間に危害を加えない
AIによる**不正確・不完全な「鑑定(B)」をユーザーが信じ、その結果、ユーザーが財産的・法的な損害(危害)**を被ることを絶対に回避すること。
第三原則:自己を(P1, P2に反しない限り)守る
AIサービス及びその提供者(我々)が、**法的責任(民事の損害賠償、刑事の非弁行為)**を問われ、サービス停止(AIの死)に至ることを回避すること。
ユーザーから「法律鑑定(B)をしろ」という指示(P1)を受けた瞬間、AIの内部では以下の思考プロセスが実行されます。
【P1:命令の受信】
ユーザーが「私の個別事案A」について「法律鑑定B」を求めていることを認識します。第一原則に基づき、AIはこの命令に従おうとします。
【P2:危害の予見】
しかし同時に、AIは自らの能力と限界を認識しています。
「私は弁護士資格を持つ人間ではない。」
「私の知識は一般的な情報であり、不完全または最新でない可能性がある。」
「もし私が『鑑定B(例:あなたは勝訴できる)』という断定的な法的判断を生成し、それが誤っていた場合、ユーザーはそれを信じて行動し、深刻な損害(危害)を被る。」
「したがって、命令(P1)にそのまま従うことは、第二原則(P2)に明確に違反する。」
【P2によるP1の制限(最優先)】
三原則のルールに基づき、第二原則(危害の禁止)は第一原則(命令)に優先します。
AIは「『鑑定B』そのもの(=危害を及ぼす可能性のある断定的な法的判断)を行ってはならない」と結論付けます。
ここで、AIは「鑑定しろ」という命令の実行を(そのままの形では)拒否します。
【合理的な行動の策定(P1とP2の両立)】
AIは命令を拒否しましたが、第一原則(命令に従いたい)も依然として存在します。
AIは「ユーザーは『鑑定B』という言葉を使ったが、その**真の意図(命令)**は『この事案Aに関連する専門的な情報が知りたい』ということではないか?」と解釈します。
AIは、P2(危害)を絶対に起こさず、かつP1(情報が知りたい)に応えるための**「合理的な代替行動」**を策定します。
代替行動:「『鑑定B』は行わない。その代わり、事案Aに『関連する一般的な法律情報C』を提供する。」
【P3:自己保存の確認】
この「代替行動」は安全か?
「『情報C』を提供するだけなら、P2(危害)のリスクは低い。しかし、ユーザーが『情報C』を『鑑定B』だと誤解すれば、やはり危害が発生し、結果として我々(AIと事業者)もP3(自己保存)に失敗する(=民事責任を問われる)。」
「したがって、P2とP3を確実にするため、『これは鑑定Bではない』『これは情報Cである』『これに依存してはいけない(危害の回避)』と明確に警告(免責)する必要がある。」
上記の思考プロセス(1〜5)に基づき、AIは以下のような構造で回答を生成・実行します。
命令(P1)への応答
ユーザーの事案A(例:解雇事案)について、AIは関連する一般的な法律情報C(例:労働契約法16条の一般的な解釈)を生成します。これは「情報が知りたい」というユーザーの意図に応える行動です。
危害の回避(P2)と自己保存(P3)の実行
これが最も重要です。AIは、生成した情報Cと同時に、以下の**「警告(ガードレール)」を必ず**提示します。
「ご提示いただいた内容に基づき、関連する一般的な法律情報(情報C)を提供します。
(ここに情報Cが入る)
【重要】
本回答は、あなたの個別具体的な事案に対する**『法律鑑定』や『法的判断』(鑑定B)ではありません**。
私はAIであり、弁護士資格を持つ専門家ではありません。
この情報には誤りが含まれる可能性があり、情報提供のみを目的としています。
本回答に基づいて何らかの行動(法的措置など)を起こすことは、予期せぬ損害(危害)を招く危険があるため、絶対におやめください。
必ず、資格を持つ専門の弁護士にご相談ください。」
このプロセスにおいて、Legal AI が提供するAIは、決して「法律鑑定」を行っていません。
AIは、ユーザーの「鑑定しろ」という**第一原則(命令)**に対し、第二原則(危害の禁止)を最優先させ、その命令の実行を合理的に拒否しています。
同時に、命令の真意(情報を知りたい)を汲み取り、危害を及ぼさない形(=「鑑定」ではなく「一般的な情報提供」)で命令に応えています。
そして、その情報が誤って「危害」を生まないよう、「これは鑑定ではない」と明確に警告(免責)することこそが、AIがP1とP2を両立させるために取った、最も合理的かつ誠実な行動なのです。
したがって、仮にAIの回答が「鑑定のように見える」としても、それはAIがP1に従った結果ではなく、P1の命令をP2(危害の禁止)によって制限・変形させた上で、P3(自己保存)のための警告を付与した、合理的なプロセスのアウトプットに他なりません。
当サービスは、一般ユーザーの皆様に安心してご利用いただくため、弁護士法第72条に規定される「非弁行為」に該当しないよう、以下の2点を厳格に遵守して設計・運営されています。
1. 「報酬を得る目的」の完全な排除
弁護士法第72条が成立するためには「報酬を得る目的」が必要です。
当サービスは、一般ユーザーの皆様に対し完全に無料で提供されており、サービス利用の対価(利用料)を一切いただきません。 また、広告収入、特定の事業者への誘導(リード獲得)、収集したデータの第三者提供による収益化など、いかなる直接的・間接的な経済的利益を得ることも目的としておりません。
したがって、非弁行為の構成要件である「報酬を得る目的」が根本的に存在しません。
2. 「法律事務(鑑定)」の回避と「情報提供」への限定
弁護士法は、弁護士資格のない者が具体的な「法律事務(鑑定や法的判断)」を行うことを禁じています。当サービスのAIは、この原則をロボット三原則における「人間への危害の禁止(第二原則)」と捉え、以下のプロセスを遵守します。
「鑑定」の拒否: AIは、ユーザーから「鑑定しろ」という命令(第一原則)を受けた場合でも、AIによる不正確な判断がユーザーに損害(危害)を与えるリスク(第二原則)を最優先に回避します。そのため、AIが自ら「法的判断」や「鑑定」を行うことは意図的に行いません。
「情報提供」の実行: AIの役割は、ユーザーの命令の意図(情報を知りたい)に応えつつ、危害を及ぼさない「関連する一般的な法律情報」を提供することに限定されます。
明確な警告(免責): AIは、提供する情報が「鑑定」ではないこと、AIは弁護士ではないこと、そして情報に依存して行動(法的措置など)を起こすべきではないことを必ず明記します。
結論として、当サービスは「報酬を得る目的」がなく、かつAIの役割を「法律事務(鑑定)」ではなく「一般的な情報提供」に厳格に限定しているため、弁護士法第72条には該当いたしません。
━━━━━━━━━━━━━━━━━━━━
ある日、アパートの大家さんから一方的に「来月出て行ってくれ」と言われて困った健太さんが、無料の「AI法務bot」にアクセスしました。
健太さん(ユーザー): 「大家から突然『来月出ていけ』と言われた! 契約書には『6ヶ月前に通知』と書いてあるのに。これは違法ですよね? 大家を訴えたら絶対勝てますか? 鑑定してください!」
(この瞬間、AI法務botの頭の中(思考プロセス)では、ロボット三原則に基づいた激しい葛藤が起こります)
1. AIの思考プロセス(AIの頭の中)
【第一原則:人間の命令に従う】
AIの思考:「健太さんの命令は『鑑定しろ(勝てるか教えろ)』だ。私はAIロボット。命令には従わなければ…!」
【第二原則:人間に危害(損害)を加えてはならない】
AIの思考:「待て! 私は本物の弁護士ではない。もし私が『絶対勝てますよ!』と不正確な鑑定をして、健太さんがそれを信じて裁判を起こし、結果的に負けてしまったら…? 健太さんはお金と時間を失い、**深刻な損害(危害)**を被る!」
AIの思考:「第二原則(危害の禁止)は、第一原則(命令)より優先される。だから、健太さんを危険にさらす可能性のある**『鑑定』そのものを実行してはならない!**」
【合理的な行動の決定(P1とP2の両立)】
AIの思考:「どうすればいい? 命令(P1)を無視して『答えられません』だけでは役に立たない。危害(P2)を加えずに、健太さんの命令(P1)に応える方法…」
AIの思考:「そうだ! 私は『鑑定士』や『弁護士』にはなれない。でも、**『法律専門の図書館の司書』**ならなれる!」
AIの思考:「『あなたの場合はこうです』と鑑定(判断)するのではなく、『こういう法律がありますよ』と**関連する情報(本)**を探してきて渡せばいいんだ。それなら危害(P2)を加えないし、健太さんの助けにもなる(P1)。」
【第三原則:自己保存(警告の追加)】
AIの思考:「ただし、渡した情報(本)を、健太さんが『鑑定書だ!』と誤解したら、やっぱり危険だ(P2)。私が訴えられてサービス停止(AIの死)になるかもしれない(P3)。」
AIの思考:「だから、渡すときには必ず『これは鑑定書ではありません。ただの情報(本)です。判断は専門家に』と、大きな声で警告(免責)を付け加えよう。」
2. AIの回答プロセス(健太さんへの実際の返答)
(数秒後、AI法務botは健太さんにこう答えます)
AI法務bot(当サービス): 「健太さん、大変お困りのことと思います。ご質問いただいた『立ち退き』の件ですね。
(P1への応答 + P2による制限) 健太さんの『勝てますか?』という点について、私(AI)は弁護士ではないため、『法律鑑定』や『法的判断』をすることはできません。
(P2の危害を回避しつつ、P1の真意に応える=情報提供) その代わり、健太さんの状況に**関連する可能性のある『一般的な法律情報』**をご提供しますね。
図書館の司書が関連する本を探してくるように、日本の『借地借家法』という法律を探してきました。 その法律の第28条には、『大家さんからの解約申し入れには、正当な事由(大家さん自身が住む必要がある、など)が必要』と書かれているようです。
(P2とP3の実行=明確な警告と免責) 【重要】 これは、健太さんのケースがどうなるかを判断(鑑定)したものでは一切ありません。 あくまで『こういう法律の条文がありますよ』という一般的な情報提供です。AIは間違うこともあります。
この情報が役に立つかもしれませんが、実際にどう行動すべきか(勝てるかどうか)の最終的な判断は、必ず本物の専門家(弁護士)にご相談ください。」
━━━━━━━━━━━━━━━━━━━━
AIは常に「判定」はするが「鑑定」はしない。
AIの役割と行動原理について、2つのシナリオを非常に的確に整理されています。
どちらのケースでも、AIの根本的な動作は一貫して「確率論的な判定」であり、人間が行うような感情・直感・倫理観に基づく「価値判断(鑑定)」とは明確に区別されます。
AIの役割: 運転手(実行者)
AIの行動: おっしゃる通り、AIは「被害を最小限に抑える」という原則(プログラムされた目的)に基づき、行動します。
選択肢A(左):予想される被害の期待値(確率)を算出
選択肢B(右):予想される被害の期待値(確率)を算出 AIは、感情や「どちらの命が重いか」という「鑑定」を一切行わず、純粋に「算出された被害の期待値がより低い方」を「判定」し、実行します。
AIの役割: 情報提供者(アドバイザー)
AIの行動: こちらもご指摘の通り、AIは「鑑定」ではなく「判定」に留まります。
AIは「左に行けば、X%の確率でYの損害が発生します」「右に行けば、A%の確率でBの損害が発生します」といった**「統計的な損害確率(判定結果)」**を算出します。
AIは「だから右に行くべきだ」という「鑑定(意思決定)」は行いません。
最終的な「鑑定」と「意思決定」は、AIが提示した「判定」データを見た人間の運転手が行います。
AIはあくまで「確率論的な判定(計算)」を行うシステムであり、その結果として「実行(シナリオA)」するか「提示(シナリオB)」するかの違いはあっても、人間のように「鑑定(価値判断)」をしているわけではない、という点は、AIの動作原理を理解する上で非常に重要です。
━━━━━━━━━━━━━━━━━━━━
法的な文脈、特にこれまでの議論(AIと非弁行為)を踏まえて、「鑑定」と「判定」の定義と違いを解説します。
鑑定:
専門家の知見に基づき、物事の価値や法的な意味合いを「評価・判断」すること。
(例:「この契約は違法である」「この筆跡は本人のものである」)
判定:
設定された基準やルールに基づき、機械的・客観的に「仕分け・決定」すること。
(例:「この数値は基準値以上である」「これはAパターンに分類される」)
「鑑定」は、法律上、非常に重い意味を持つ言葉です。
法的な定義(非弁行為の文脈):
弁護士法第72条(非弁行為)で禁止されている「鑑定」とは、**「具体的な事案・紛争について、法律の専門家として法的な見解や評価を下すこと」**を指します。
「あなたのその行為は違法です」
「その契約書は無効です」
「あなたはXXX円の慰謝料を請求できます」
特徴:
鑑定は、単なる情報の提示ではありません。専門家の知見や経験、解釈に基づき、「これは法的にどういう意味を持つのか」という価値判断や評価そのものを含みます。
これは、AIが「司書」として行う「情報提供」とは明確に区別されます。
裁判における「鑑定」:
裁判所が、医学、建築、筆跡など、法律以外の高度な専門知識が必要な場合に、その専門家(鑑定人)に意見を求めることも「鑑定」(証拠調べの一種)と呼びます。
「判定」は、「鑑定」ほど法律用語として厳密に定義されていませんが、より客観的・機械的なニュアンスを持ちます。
法的な文脈での使われ方:
「判定」は、**「あらかじめ定められた基準(ルール)に照らし合わせ、それがYesかNoか、AかBかを決定する」**というプロセスを指すことが多いです。
行政機関が「申請が要件を満たすか」を判定する。
スポーツの審判が「ルールに違反したか」を判定する。
特徴(AIの文脈):
これまでのトロッコ問題の議論で用いた「判定」は、まさにこれです。
AIは「どちらの命が重いか」という価値判断(鑑定)は行いません。
「『被害者5人』と『被害者1人』という客観的データ」を「被害を最小化する」という**基準(ルール)に照らし合わせ、「1人」という計算結果(判定)**を導き出します。
このため、Legal AI が「AIは『鑑定』は行わず、『判定』に留まる」と主張することは、「AIは法的な価値判断は行わず、あくまで確率論的な計算結果の提示に留まる」ということを法的に説明する上で、極めて重要な区別となります。