GitLab 製品開発のための AI 倫理原則

GitLab は、包括的な DevSecOps プラットフォームに AI を責任を持って組み込むことで、ソフトウェア開発ライフサイクル全体に人工知能(「AI」)を統合することに専念しています。私たちは、AI 機能が効率性のバリューをさらに推進し、私たちやお客様の働き方を再形成する大きなメリットと機会をもたらし続けると信じています。しかし、ガードレールなしでは、AI 機能が倫理的な懸念を引き起こす可能性があることも認識しています。

私たちは、AI 機能を GitLab に組み込み続ける際の意思決定を導くため、そしてこれらの機能が私たちのコアとなる CREDIT バリューを適切に体現することを確保するために、これらの原則を作成しました。

私たちはコアの透明性のバリューに忠実であり続けるために、これらの原則を公開しています。私たちは AI 機能の構築と改善に継続的に取り組んでいるため、AI 自体と同様に、これらの原則は時間の経過とともに学習に基づいて変更される可能性があります。私たちはこれらの原則を継続的に見直し、責任ある開発のベストプラクティスを反映するために必要に応じてイテレーションしていきます。

1. 不公平なバイアスを避ける

多様性・包括性・帰属意識(DIB)は GitLab の成功の根幹であり、私たちのコアとなる CREDIT バリューの一つです。私たちは可能なあらゆる方法で DIB を取り入れ、すべての活動に DIB を組み込んでいます。このハンドブックページでは、GitLab が DIB についてどのように考え、GitLab において DIB を育むためにこれまでどのような取り組みが行われてきたかを説明しています。

AI システムが人種、性別、生物学的性別、その他の根拠に基づいて推奨や意思決定を行うことで人間および社会的バイアスを永続させる可能性があるという証拠があるため、倫理的な AI を考える上で DIB は重要な考慮事項です。このバイアスは様々な方法で導入される可能性があります:

  • 機械学習モデルのトレーニングデータが社会的または歴史的な不平等を反映している場合;
  • トレーニングデータに望ましくない、または違法でさえある統計的相関関係が含まれている場合;
  • 人間が意識的または無意識にデータを選択する方法;または、
  • 人間が意識的または無意識にアルゴリズムを適用する方法。

バイアスのある結果を避けるために、GitLab は AI システムを活用した機能を構築する際に引き続き DIB を優先することを目指します:

  • 可能な限り常に開発プロセスに DIB を組み込むこと;
  • AI システムが不公平なバイアスに陥りやすいかどうか、特に AI システムがすでにバイアスや偏ったデータの例を示しているかどうかを問い続けること;
  • AI 機能のデプロイ前に AI システムのバイアスをテストすること;および
  • バイアスが明らかな場合は AI 機能のデプロイを拒否すること。

2. セキュリティリスクから保護する

GitLab は DevSecOps プラットフォームであり、ソフトウェア開発ライフサイクル全体にセキュリティを統合することを目指しています。AI は多くのセキュリティ上のメリットをもたらしますが、データ漏洩、モデルポイズニング、その他の攻撃などのセキュリティリスクも生み出す可能性があります。AI 機能においてこれらのリスクを軽減するために、私たちは以下を目指します:

  • 最新のセキュリティトレンドとベストプラクティスを認識すること;
  • 私たちの AI セキュリティ機能の一部が人間の監督を必要とする場合があることを念頭に置くこと;
  • セキュリティ侵害を示す可能性のある異常な動作パターンについて AI 機能を監視すること;および、
  • GitLab のテストおよびデプロイ基準を遵守して、AI 機能が堅牢で敵対的な脅威に耐えられることを確保すること。

3. 潜在的に有害な使用を防ぐ

成果は私たちのコアとなる CREDIT バリューの一つであり、私たちは GitLab とお客様の両方が達成する成果を改善する AI 機能を提供することに注力しています。私たちは責任を持って、かつ全体的な害を引き起こすことなくこれを達成することを目指します。

AI 機能がもたらしうる害のいくつかの例については上述しましたが、まだ特定されていないものを含め、他にも多くの AI に関連した害があることは承知しており、それらにも対処しようとしています。害は様々な状況で生じる可能性があり、違法行為を促進する AI 生成コンテンツ、誤解を招くコンテンツ、または嫌がらせ・暴力・憎悪的なコンテンツが含まれますが、これらに限定されません。私たちの利用規定には、AI 機能の禁止された有害な使用の例が記載されています。

私たちは AI 機能を責任を持って成長させ、AI 機能が他者によって誤用または悪用される可能性を考慮することを目指します。AI 機能の潜在的な結果を慎重に評価し、全体的な害を引き起こす、または他者が害を引き起こすことを許す可能性の高い機能のリリースを控えることを目指します。

4. AI 機能が使用するデータとその使用方法を考慮する

私たちが構築する AI 機能が使用するデータを慎重に評価することを目指します:

  • どのようなデータが使用されているか;
  • このデータを使用する目的;および
  • データの知的財産権およびその他の権利を誰が所有するか。

また、AI 機能によるユーザーの個人データの処理が、承認された場所のみでの処理や限定的な目的のためのデータ処理というコミットメントを含むGitLab プライバシーステートメントに沿っていることを確保します。

5. 自分たちへの説明責任を持つ

GitLab はコアのイテレーション バリューを信じ、継続的改善に専念しています。AI システムは急速に発展しており、AI システムを活用する方法や関連するリスクを軽減する方法も同様です。GitLab による AI 機能の開発は、テクノロジーおよびそのメリットとリスクに関連する専門知識を持つチームメンバーによって行われます。AI 機能が人間によるレビューと介入の対象となることを確保することが重要だと考えています。

私たちはコアのコラボレーション バリューを強く信じており、GitLab のミッションはすべての人が貢献できるようにすることです。私たちは外部向けの AI 機能についての GitLab ユーザーおよび一般の人々からのフィードバックを歓迎します。フィードバックの仕組みが明確で一貫していることを確保することに取り組んでいます。また、可能な限り AI 倫理に関連する発見を業界の他の人々と共有するよう努めます。

私たちは自己批判的であり続け、AI の発展について継続的に自己教育することを目指します。AI の状況は急速に変化しており、これらの原則が業界の最新のリスクとベストプラクティスを反映するよう継続的に更新されるよう取り組みます。