Splashtop でエンタープライズジェネレーティブ AI への安全なアクセスを実現

Prev Next

Splashtop でエンタープライズジェネレーティブ AI への安全なアクセスを実現

ChatGPTをはじめとするジェネレーティブAIの人気の高まりは、企業や社会の変革期の始まりを示しています。AIと機械学習(ML)は、以前からビジネス価値を高めてきましたが、大規模言語モデル(LLM)を含む生成AIの突然の出現により、すべての業界に変化の波が押し寄せています。

Open AIのChatGPTからAnthropicのClaude、GoogleのBard、Microsoft Bing AIまで、ジェネレーティブAI分野でのSaaSサービスの急増に伴い、あらゆる規模の企業がこれらの新興サービスの利用を管理するガイドラインとポリシーの確立を急いでいます。同時に、この強力でありながら新生のテクノロジーの影響、つまり、個人情報の漏洩リスクを軽減し、知的財産を保護し、潜在的な誤情報や有害なコンテンツに対処し、意図しない著作権侵害を回避する方法にも取り組んでいます。

この急速に進化する状況において、組織にとって特に差し迫った問題として浮上しているのは、ジェネレーティブAIでプライベートデータを安全、確実、効果的に使用する方法です。まさにこの領域で、最近導入された Splashtop Secure Workspace プラットフォームがお手伝いします。

企業向けのプライベートAIモデル

確かに、商用のジェネレーティブAI SaaSサービスの中には、公開モデルの改善に提出されたデータを使用しないことを誓約しているものがあります。しかし、すべての企業が、自分たちがほとんど制御できないクラウドサービスに個人データを送信することに抵抗がないわけではありません。一部の組織は、他の地域または国でホストされているサービスの使用を妨げる主権と規制コンプライアンスの対象となる場合があります。

プライベートAIモデルの恩恵を受ける他の企業は、独自のLLMモデルをゼロからトレーニングするビジネスニーズがある企業、またはカスタマーサポート、財務アドバイザリーなどの特定のタスク用に事前にトレーニングされたデータ拡張と最適化されたLLMモデルを保護する必要がある企業です。

独自のプライベート生成AIおよびMLOpsインフラストラクチャを構築する企業は、オンプレミスであろうとプライベートクラウドであろうと、これらのツールのパワーを独自のIT制御下に置くことができ、ビジネスニーズ、コンプライアンス、および主権の要件に合わせることができます。この設定により、LLM へのクエリのトレーニング、微調整、または拡張に使用される機密データが外部に公開されるのを防ぐことができます。

大規模な言語モデルを含むプライベートアプリケーションへのアクセスの保護

プライベートなセットアップにも保護が必要です。言語モデルからサポートするデータベース、プライベートデータリポジトリまで、機械学習の運用パイプラインのすべてに、安全なプロビジョニング、アクセス、管理が必要です。

そこで、Splashtop Secure Workspace の出番です。私たちは、プライベートLLMを含むあらゆるプライベートエンタープライズアプリケーションへのアクセスを制御するためのシンプルでありながら安全な方法を提供します。エンタープライズアプリケーションがWebベースのインターフェースを提供する場合でも、カスタムのデスクトップまたはモバイルアプリケーションが必要な場合でも、当社のプラットフォームは、ネットワークサービスポートを外部に公開したり、ファイアウォール、要塞ホスト、VPNなどの複雑なネットワーク設定を必要とせずに、任意のクライアントデバイスから、どこでも、すべてから安全なアクセスを可能にします。

すべてのレベルでアクセスを保護

Splashtop Secure Workspace は、LLM を含むあらゆるプライベートエンタープライズアプリケーションへのアクセスを制御するための豊富なオプションセットをサポートしています。主な機能は次のとおりです。

  • シングルサインオン(SSO)統合 – 一般的なIDプロバイダー(Google、Microsoft、Oktaなど)と同期します
  • 多要素認証(MFA) — プライベートエンタープライズLLMのチャットインターフェイスを含む、SSO対応のすべてのエンタープライズアプリケーションで、フロントエンドユーザーとバックエンドユーザーの両方に対して強力な認証制御を可能にします。
  • 条件付きアクセス制御 — ジオロケーションや企業支給のラップトップの使用など、主要なコンプライアンスとセキュリティ基準を確認することで、アプリケーションへのアクセスを制限します。たとえば、データ主権ルールを順守している組織は、従業員が海外に旅行しているときにプライベートLLMへのアクセスをブロックしたい場合があります。
  • 委任された制御 による特権アクセス — Splashtop は、エンタープライズアプリケーションの重要なサブシステムとデータを管理するために指定された特権アカウントまたはサービスアカウントを安全に委任することで、アクセスを制御できます。LLM の場合、これにより、機密性の高い認証情報に不必要にさらされることなく、モデル自体、ベクトル データベースまたはグラフ データベース、非構造化データ リポジトリ、または ML パイプラインへのアクセスを制御および追跡できます。
  • 安全なサードパーティアクセス — 当社のプラットフォームは、エンタープライズアプリケーションへの一時的なアクセスを必要とする可能性のあるサードパーティとの安全なアクセス共有を提供します。これには、オンサイトのトラブルシューティングのために安全なアクセスを必要とするプライベートLLMソリューションプロバイダーが含まれる可能性があります。Secure Workspaceは、監査とコンプライアンスの目的でセッションを完全に記録しながら、便利なアクセスを可能にします。
  • ゼロトラストネットワークアクセス(ZTNA) —ネットワークサブネット全体への完全なアクセスを許可する従来のVPNとは対照的に、Splashtop Secure WorkspaceのZTNAアプローチは、承認されたリソースへのピンポイントアクセスを許可し、攻撃対象領域を最小限に抑えます。「default-deny」アプローチは、エンタープライズLLMが機密性の高いデータを処理する場合に安心感を提供します。
  • API主導の自動化 — 自動化とDevOpsワークフローに取り組む企業は、Secure Workspaceプラットフォームを緊密に統合および自動化する能力を高く評価するでしょう。ジェネレーティブ AI のコンテキスト内では、Splashtop Secure Workspace はあらゆる MLOps パイプラインにシームレスに適合し、主要なリソースへのアクセスの自動プロビジョニングと Secure Workspace プラットフォーム自体の自動設定を促進し、生産性を最大化し、人為的エラーを減らします。

次に、Secure Workspaceを使用してエンタープライズジェネレーティブAIへの安全なアクセスを実現する方法を示します。そして、それを進めるために、あなただけのプライベートなLLMベースのチャットボット、つまり自分だけのChatGPTを手に入れることになります。

プライベートLLMチャットボットを作成するための実践ガイド

LLMチャットボットを構築するという概念は、複雑な作業のように聞こえるかもしれません。しかし、現実には、それはあなたが思っているよりも簡単です。dstack という オープンソースの MLOps ツールを使用して、詳しく見ていきましょう。

この例では、1 つの dstack run コマンドで、クラウド環境で LLM-As-Chatbot をプロビジョニングして起動できます。

この例では、Splashtop Secure Workspace コネクタを同時にプロビジョニングして、プライベート LLM チャットボットを Secure Workspace に接続します。その後、他のアプリケーションと同様に、強力な認証、SSO、MFA、および豊富な条件付きアクセス ポリシーのセットを利用して、安全なワークスペース内でアクセス制御を設定できます。

ここでは、プライベート LLM への安全なアクセスを設定するためのステップ バイ ステップ ガイドを示します。

1. リポジトリをクローンする


git clone https://github.com/yanlinw/LLM-As-Chatbot.git
cd LLM-As-Chatbot

2. dstack のインストールとセットアップ


pip install "dstack[aws,gcp,azure,lambda]" -U
dstack start

dstackサーバーが起動したら、ログインし、クラウドの資格情報(AWS、GCP、またはAzure)を使用してプロジェクトを作成します。

3. dstack プロファイルを作成する

 LLM-As-Chatbot フォルダのルートの下に .dstack/profiles.yml ファイルを作成します。このファイルは、作成されたプロジェクトを指し、リソースを記述する必要があります。

例:


profiles:
  - name: aws-llm
    project: aws-llm
    resources:
      memory: 16GB
      gpu:
        count: 1
    spot_policy: auto
    default: True

4. 初期化

dstackサーバーに切り替え、dstack configコマンドをコピーしてターミナルに貼り付けます。これにより、dstack サーバーは AWS リソースをリモートでプロビジョニングできます。これに続いて、dstack init コマンドを実行します。


dstack config --url http://127.0.0.1:3000 --project ssw-llm --token $MY_TOKEN

dstack init

5. プライベート LLM の Secure Workspace を設定する

Splashtop Secure Workspace Connectors は、プライベートアプリケーションとリソースを Splashtop Secure Workspace に接続するための安全なソリューションを提供します。これにより、これらのプライベートアプリケーションを一元的に制御できます。次に、作業中のプライベート LLM を Secure Workspace に接続してみましょう。

5.1 コネクタを作成し、コネクタ トークンをコピーする

Splashtop Secure Workspace 管理者アカウントにログインします。[Deployment ] メニューに移動し、[Connector] を選択して 、[Add Connector ] ボタンをクリックします。[ヘッドレス/CLI] を選択し 、コネクタ名を入力して [次へ] をクリックします 。「Linux 」を選択し 、「完了」をクリックします 。

コネクタを作成したら、コネクタリストからコネクタ名をクリックして詳細を表示します。 手順 6 で使用するトークン をコピーします。

5.2 LLMアプリケーションの作成

プライベート LLM チャットボット サービスをプライベート アプリケーションとして Secure Workspace に追加して、このサービスを従業員にプロビジョニングします。

「 アプリケーション」/「アプリケーション 」セクションに移動し、「 アプリケーションの追加」/「プライベートアプリケーション の追加」ボタンをクリックします。アプリケーションフォームにアプリケーション名を入力し、ホストとして 「localhost」、ポートとして「6006」 を入力し、プロトコルとして HTTP を選択し 、以前に作成したコネクタ名を選択し、このアプリケーションに適切なグループを割り当てて、[保存]をクリックします 。

Secure Workspace は、プライベート LLM アプリケーションの完全修飾ドメイン名を生成します。

6.クラウドでアプリを実行します

LLM-As-Chatbot フォルダで、 dstack run コマンドを使用して、クラウド内のプライベート LLM とセキュア ワークスペースをプロビジョニングします ($token をステップ 5.1 のコネクタ トークンに置き換えます )。


dstack run . -f ssw-private-llm.yml $token

このコマンドは、クラウドでLLM-As-Chatbotをプロビジョニングして実行します。また、Secure Workspace コネクタ インスタンスとプライベート LLM も開始されます。

プライベート LLM サービスが完全に開始されると、作成したプライベート LLM アプリケーションの完全修飾ドメイン名を使用して、プライベート LLM にアクセスできます。その間、このアプリケーションのエンタイトルメント ポリシーと条件付きアクセス ポリシーを設定できます。

結論

企業が民間のジェネレーティブAIやLLMを採用するにつれ、これらの革新的なシステムへのアクセスを保護することが最重要課題となっています。

Splashtop Secure Workspace は、既存のインフラストラクチャとシームレスに統合しながら、ビジネスクリティカルなシステムへのリモートアクセスを保護します。

この記事で概説した手順に従うことで、プライベート LLM の安全なワークスペースを設定および管理し、運用効率を維持しながら会社独自のデータを保護できます。

ジェネレーティブAIとセキュアアクセスシステムの組み合わせは、ビジネスオペレーションの未来を形作り続け、これらのシステムの採用と安全な管理に積極的に取り組むことで、企業はこの変革の最前線に立つことができます。