MetaのLlamaライセンス契約:オープンソースとは程遠い理由とリスク

エグゼクティブサマリー

Llamaライセンス契約の主要リスク

  • 7億MAUの制限 : 利用者の総数が7億人を超えると使用停止リスクが発生し、派生モデルの利用者全てがカウントされる可能性がある。

  • Meta側の柔軟性 : Llamaライセンス契約はMeta側の都合で文言がいつでも変更可能であり、利用者に不利な条件が追加されるリスクがある。

  • エグゼクティブの信頼性 : 最近のSNSでのファクトチェック廃止など、エグゼクティブの行動に疑念を抱く要素が多く、法的安定性に欠ける場合がある。

  • ナラティブのリスク : ナラティブを無批判に信じ込むことは重大なリスクを生む可能性があり、批判的思考が必要。

  • 「妥当な倫理のためのガイドライン」とのギャップ : 喧伝されるナラティブと実際のライセンス文言の間にギャップが存在し、ユーザーは誤解しやすい。

  • 法律および管轄に関する条項 : カリフォルニア州法が適用され、国際取引における保護が適用されない場合がある。また、カリフォルニア州の裁判所の専属管轄権があるため、利用者にとって不利になる可能性がある。

Shuji Sadoから"Llamaライセンス契約を適用するAIモデルを使用する際の多大なリスク"という刺激的なアーティクルが出ています。

まず、ポイントがいくつかあります。一つはLlamaライセンス契約の本質。

  • ライセンス契約の認識:Llamaライセンスは一方的なライセンスではなく、利用者のサインが求められる契約である。

  • オープンウェイトの本質:ライセンスがオープンウェイトでしかなく、オープンソースと程遠いものであるという認識が重要。

オープンソースには定義があります。

  • 自由な再頒布
  • ソースコードの公開
  • 特定人物・集団に対する差別の禁止 : たとえば「特定国家への輸出を禁ずるソフトウェア」はOSDに合致しない。
  • 利用分野に対する差別の禁止 : 例えば「兵器への利用を禁ずるソフトウェア」はOSDに合致しない。
  • ライセンスの権利配分 : ライセンスが再頒布者に認める権利は差別なく与えなければならない。
  • ライセンスの技術的中立性 : ライセンスに特定技術に依存するような条項があってはならない。

この定義と比較すると、Llamaライセンスはこれらから逸脱しており、オープンソースとは程遠いものです。

特に注意すべきものは、

  • 7億MAUの制限 : 利用者の総数が7億人を突破した場合の使用停止リスク。特に派生モデルの場合派生モデルの利用者すべてがカウントされるリスクがある。
  • Meta側の柔軟性 : Llamaライセンス契約はMeta側の事情でいつでも文言を追加できる構造になっている。

さらに、Llamaライセンスの解釈には注意すべき点があり。出力結果によってトレーニングされたモデルにもLlamaライセンスが及ぶという解釈を採用しているものと思われる。

この部分は、出力にライセンスを主張しない、Gemmaとは明白に異なる点であり注意が必要。

Gemmaには以下の文言がある。

Google claims no rights in Outputs you generate using Gemma. You and your users are solely responsible for Outputs and their subsequent uses.

ただし、このLlamaライセンスは特許法などの解釈を明白に逸脱しているため、司法解釈は不安定と考えざるを得ない。

例えば、特許法では「消尽」という概念があり、適法に上市された時点で消尽します。仮に自動車に特許があるとしても、その自動車を運用しているタクシー会社に特許を主張することはできません。

結果的に、Llamaライセンスは、GPLなどの精神から考えれば、極めて不自由なライセンスである。

整合性の欠如

  • Metaのビジョンとライセンス文言の整合性 : Metaの「オープンである」というビジョンとライセンス文言の整合性が取れていない点に注意が必要。
  • 法的な安定性の欠如 : ナラティブは勝手な思い込みであり、法的な安定性を保証するものではない。実際にMetaの開発者が持つビジョンが、契約やライセンスの文言に反映されていない場合、利用者にとって大きなリスクとなる。

ナラティブのリスク

  • ナラティブの信頼性 : 昨今では、ナラティブを無批判に信じ込んでしまうことが重大なリスクを生む可能性がある。そのため、ナラティブに対しても批判的思考を持つことが重要である。

  • 「妥当な倫理のためのガイドライン」との整合性 :AIの透明性や信頼性確保のために喧伝されるナラティブと実際のライセンス文言の間にギャップが存在することが問題である。このギャップにより、ユーザーは誤解しやすく、潜在的なリスクを見逃す可能性がある。

ナラティブのリスクへの対処

  • 批判的思考の促進 : 情報を受け取る際には、常に批判的な視点を持つことが重要です。ナラティブの背後にある意図やバイアスを考慮することで、より客観的な理解が得られます。

  • 多様な視点の収集 : 異なる視点や意見を取り入れることで、ナラティブの偏りを軽減することができます。多様な情報源からの情報を集めることが重要です。

  • 透明性の確保 : ナラティブを構築する際には、その根拠やデータを明示することが求められます。透明性が確保されることで、信頼性が向上し、誤解を減らすことができます。

AIの透明性や信頼性確保のために「妥当な倫理のためのガイドライン」を備えた無料のオープンソース的なモデルとして喧伝することは危険であると思われます。特に、今はトランプ政権を始めとして多くのリスク要因が発生しています。トランプ氏の政策は、保護主義や規制強化を重視する傾向があり、特に対中政策や貿易政策においては厳しい姿勢を取ることが予想されます