生成AI(GenAI)は、新時代のイノベーション、効率性、生産性をもたらします。また、営業、マーケティング、顧客業務、ソフトウェア開発などの部門において、役割を変革しパフォーマンスを向上させるものとして期待されています。生成AIはその進化とともに、銀行からライフサイエンスに至るあらゆる分野で何兆ドルもの価値を引き出すでしょう。
NvidiaやGoogleなどの企業は、生成AIに不可欠な大小の言語モデルを開発しています。ただ、生成AIソリューションの大規模な導入を促進するのはデータです。IDC Global DataSphereでは、世界のデータ量は2022年から2026年の間に2倍以上になると予測されています。このようなデータ量の増加を考えると、組織はデータの完全性を効率的に確保する必要があります。データは貴重であり、新しい製品やサービスの革新、ビジネスモデルの進化、カスタマーエクスペリエンスの向上に役立ちます。
HCLTechの最新調査「クラウドの進化2024:近代化の実現」では、生成AIプロジェクトの実施に関する計画の進化について、調査参加者に話を聞きました。企業のリーダーの82%が、生成AIが企業の生産性にプラスの影響を与えることに同意する一方で、生成AIプロジェクトを成功させるために必要なデータの量と質の確保に懸念を抱いています。同レポートでは、調査に参加した企業の98%が、企業独自のデータに基づいてトレーニングや推論を行う生成AIソリューションに主に関心を持っていることもわかりました。
課題となるのが、生成AIプロジェクトを成功に導くデータへのアクセスの確保と保護の手法です。
IT部門と事業部門の両方のリーダーが、生成AIが企業リスクを増加させる可能性があると回答し、38%がセキュリティに関する懸念を示しています。リスクを軽減するには、データを保護するガードレールが必要です。独自のデータを活用する計画には、説明可能性のほか、ビジネス上の問題を解決するために倫理的にデータを利用する旨を盛り込む必要があります。
HCLTechは生成AIに関する慣行に従い、生成AIプロジェクトの開始と完了に向けた計画、プロセス、ベストプラクティスをクライアントに提供します。セキュリティの問題に直結する課題として、以下の3つがあげられます。
1. 迅速な行動
市場投入までの時間を短縮するには、組織はLLMを活用したアプリケーションを開発、導入する必要があります。それには熟練した人工知能(AI)の専門家が必要であり、何より重要なのは、ITインフラがLLMのコンピューティング需要に対応できるようにすることです。そしてインフラには、セキュリティとガバナンスのベストプラクティスが必要です。
2. ビジネス要件の変化への対応力
モデルのカスタマイズ、偏りの軽減、データセキュリティへの対応力が含まれます。偏りの軽減とは、LLMで有害な偏りが生じないようにすることでであり、慎重なデータキュレーションとモデルの微調整が必要です。データセキュリティは当初から考慮すべき事項です。
3. データセキュリティの重視
データはモデルの原動力となりますが、不正アクセスや悪用を防ぐため、機密データは保護する必要があります。
生成AIソリューションスタックにはコストがかかるという印象は、このような課題への対処が求められるという点にあります。
IT部門のリーダーは、事業のステークホルダーがリスクの正確な評価なしに生成AIの導入を急いでいると考えています。事業部門のリーダーは、積極的に進めていく決意を固めています。そのため、IT部門と連携し、サードパーティーのシステムインテグレーターやトランスフォーメーションパートナーを選択するという計画を立てています。
HCLTechの調査では、取り組みに成功した企業の60%以上が、インテグレーターやサービスプロバイダーと協力することで、スキルギャップを解消し、初期段階のプロジェクトを加速させたと回答しています。
HCLTechは、生成AIプロジェクトを選択して開発する企業に対し、次のようなガイダンスを提供しています。
- プロジェクトにおいてビジネスプロセスを十分に定義します
- データプラットフォームを含むインフラをセキュリティを念頭に設計します
- 業界の経験と専門知識を反映したHCLTechのモデルを使用し、独自のデータでモデルを訓練してビジネスの優先順位に適応させます
生成AIの導入におけるデータセキュリティの重要な役割
多くの組織が生成AIテクノロジーを業務に取り入れ始めていますが、データセキュリティの重要な役割を理解しておく必要があります。生成AIの導入を成功させるには、データをいかに効果的に保護できるかにかかっています。生成AI戦略にデータセキュリティを組み込むことで、責任あるAIを効果的に活用できるようになります。
HCLTechのクラウド調査レポートによると、機密データをクラウドに移行し生成AIソリューションに活用しようとする企業にとって、セキュリティ上の懸念と規制コンプライアンスが最大の課題となっています。生成AIモデルのトレーニングと推論に必要なデータは、主にパブリッククラウドインフラに存在するため、高度なAI機能を利用するにはクラウドプロバイダー頼みという面があります。多くの組織が積極的に規制やコンプライアンスの要件をモニタリングし、法的状況の変化を把握するよう努めています。
HCLTechのAI Forceは、AIを搭載したダイナミックなソリューション群であり、責任あるAIの導入を重視しています。堅牢なセキュリティとガバナンス対策を統合し、安全なイノベーションと大規模な成長を促進します。
LLMとデータセキュリティに関する検討事項
LLMには、データプライバシー、機密性、規制コンプライアンスの確保など、データセキュリティに関する深刻な課題が浮上しています。不正アクセス、データ流出、機密情報の漏洩といったリスクもあります。このような問題に対処するには、LLM特有のセキュリティについて包括的に理解する必要があります。
主な懸念事項として、機密情報の匿名化と共有の最小化、エンドツーエンドの暗号化とHTTPSのような安全なチャネルの使用があります。
さらに、生成AIモデルのトレーニングと推論に必要なデータは、主にパブリッククラウドインフラに存在するため、高度なAI機能を利用するにはクラウドプロバイダー頼みという面があります。HCLTechのレポートによると、シニアリーダーの37%が、クラウドに移動するデータの機密性を理由に、パブリッククラウドで生成AI戦略を進めることに何らかのセキュリティ上の懸念を示しています。
生成AI戦略におけるデータセキュリティの確保
組織に生成AIを導入するには、機密情報を保護し、ステークホルダーの信頼を維持するために、さまざまなデータセキュリティの懸念に対処する必要があります。
ここでは、リスクを軽減するための実用的なソリューションを紹介します。
1. データの暗号化
・保存データと転送中のデータの暗号化:保存データと転送中のデータはすべて、強力な暗号標準を使用して暗号化します。これにより、不正アクセスや潜在的な侵害からデータを保護します
・エンドツーエンドの暗号化:ユーザーと生成AIシステムで共有されるデータをエンドツーエンドで暗号化することで、通信を保護し、傍受を防止します
2. アクセスの制御
・役割ベースのアクセス制御(RBAC):RBACを活用し、組織内でのユーザーの役割に基づいてデータへのアクセスを制限します。これにより、不正なデータアクセスのリスクを最小限に抑えます
・多要素認証(MFA):MFAを導入してセキュリティのレイヤーを追加し、許可されたユーザーだけが機密情報にアクセスできるようにします
3. データの匿名化とマスキング
・データの匿名化:k-匿名性、差分プライバシー、合成データ生成などの手法を適用してデータセットを匿名化し、データの有用性を維持しながら個人のプライバシーを保護します
・データのマスキング:モデルのトレーニングプロセス中に機密性の高いデータ要素をマスキングし、個人を特定できる情報(PII)の漏洩を防ぎます
4. 定期的なセキュリティ監査と評価
・定期的な監査:定期的なセキュリティ監査と脆弱性評価を実施し、システムの潜在的な弱点を特定して、対処します
・侵入テスト:サイバー攻撃を模擬した侵入テストを実施し、生成AIシステムのセキュリティ対策の堅牢性を評価します
5. 規制と標準の遵守
・規制の遵守:GDPR、欧州AI法、米国AI権利章典、CCPA、HIPAAなど、データ保護やAIに関する規制を確実に遵守します。規制の変更に関する知識を最新に保ち、適宜実務を調整します
・業界標準:情報セキュリティ管理向けのISO/IEC 27001やサイバーセキュリティ向けのNISTガイドラインなど、業界のベストプラクティスや標準を実施します
6. セキュリティの意識向上とトレーニング
・従業員研修:継続的なトレーニングプログラムを提供し、データセキュリティのベストプラクティスや新たな脅威について従業員を教育します
・セキュリティ文化:セキュリティを重視する文化を醸成し、従業員がセキュリティプロトコルを遵守して、潜在的な脆弱性を報告することを奨励します
HCLTechの生成AIソリューションは、業界やビジネス機能を横断する包括的なアプローチを採用しています。これらのサービスは、イノベーションを重視しながらも、倫理的で責任あるAIの枠組みの遵守、プライバシーの確保、知的財産権の保護、公正さの促進、事実の正確性の検証を実現します。
ステークホルダーとの信頼関係の構築
データ保護に対する明確で揺るぎないコミットメントを示すことで、リスクを軽減し、ステークホルダーとの信頼関係を構築して、効果的で持続可能なAI統合を実現します。ここでは、組織がパートナーやステークホルダーとの信頼関係を強める方法をいくつか紹介します。
1. 透明性のあるコミュニケーション
・セキュリティポリシー、慣行、データ保護のために取られた措置について、ステークホルダーと定期的にコミュニケーションを取ります
・データ侵害やセキュリティインシデントが発生した場合は、問題の緩和と解決のために講じた措置を含めて透明性を確保し、説明責任を果たして確実に対応します
2. サードパーティーによるセキュリティ認証
・データ保護に対する組織のコミットメントとして、サードパーティーの公認セキュリティ監査人が確実な認証を実施します。HCLTechは近年、Amazon Web Services(AWS)生成 AIコンピテンシーパートナーに認定されました。これは、AWS上で生成AIアプリケーションを構築し、安全で倫理的かつ責任あるAIプラクティスを遵守しながら企業に革新的な成果をもたらす専門知識が認められたものです
・独立したセキュリティ監査を定期的に実施し、セキュリティ慣行の有効性を検証して、結果をステークホルダーに共有します
3. 堅牢なデータガバナンスの枠組み
・包括的なデータガバナンスの枠組みを確立し、ライフサイクル全体を通じてデータを安全に管理するためのポリシーと手順を策定します
・データスチュワードやデータ保護責任者を任命し、データのセキュリティと完全性を監督させ、ベストプラクティスが一貫して守られている状態を維持します
4. クライアントやパートナーの関与
・セキュリティ対策に関する議論にクライアントやパートナーにも参加してもらい、改善の余地があると思われる点について意見を求めます
・クライアントへのセキュリティアドバイス、セキュリティに特化したウェビナー、透明性の高い報告メカニズムなど、信頼構築に向けたイニシアチブを開発します
データセキュリティの不安を解消
安全な生成AIの慣行を理解し、実践することで、組織は重要なデータ資産を保護しながら生成AIの可能性を最大限に引き出すことができます。組織が生成AIのイノベーションと必要なデータ保護のバランスを効果的に取るには、適切なテクノロジーやサービスプロバイダーを活用することが重要です。
HCLTechは、厳格なデータセキュリティ対策を維持しながら、生成AIイノベーションの複雑さを効果的に管理しています。HCLTechが持つ安全な生成AIの慣行に関する専門知識を活用することで、組織はデータを保護しながらイノベーションを実現できます。HCLTechは運用効率、規制コンプライアンス、データの完全性を確保し、生成AIを確実に統合して、データ主導の世界に必要な信頼を維持します。