高等教育のリーダーたちがジュニパーのサミットイベントで交流、有意義な時間を共有

ジュニパーは先日、高等教育機関でネットワーキングに携わる革新的なリーダーたちが参加する素晴らしいサミットイベントを開催しました。 このJuniper Networks Global Higher Education Summitでは、業界のリーダーとジュニパーのエキスパートが教育分野におけるデジタル変革に関連する知見、課題、革新的なソリューションを共有できるよう、包括的なプラットフォームを提供しました。 高等教育のITネットワークにおいて、信頼性、シンプルさ、安全な接続性は大学生や教職員へ革新的なサービスとエクスペリエンスを提供する基盤となります。昨今では、ネットワーキングにおけるAIの活用と、それによる教育機関にとっての潜在的なメリットについて関心が大きく高まっています。 依然として残る新型コロナウイルスの影響  今ではコロナ禍は遠い記憶のように感じるかもしれませんが、英国教育機関からの参加者は2人とも、あの日々があったからこそ、ユーザーエクスペリエンスについて新たな視点で考えるようになったと語りました。また、新たな持続可能性の重視など、新しいアプリケーションと要件の変化に関するサポートにおいて、ネットワークインフラストラクチャが革命的な飛躍を遂げたことも振り返っています。 レディング大学の運営責任者ケビン・モーティマー氏は、ITインフラストラクチャ運用管理の体験をお話ししていただきました。ケビン氏は過去のIT投資が不十分だったことによる技術的負債がもたらす課題について率直に認め、「新型コロナウイルス以降の私の仕事は非常に困難なものでした。数多くの技術的負債を引き継いでいましたから」と述べています。 プリマス大学のIT製品開発担当シニアインフラストラクチャアーキテクトであるアレックス・イスラエル氏も自身の見解を語りました。技術インフラストラクチャが持つ広範な効果について「Wi-Fiだけの話ではありません。スタッフ、教職員、学生のネットワークエクスペリエンスについても考えるべきです」と強調しています。この言葉は、インフラストラクチャそのものだけではなく、テクノロジーが全体に与える影響に目を向けることの重要性を示しています。プリマス大学のアレックス氏が「学生たちは照明の改善よりもWi-Fiを求めるだろう」と述べているこちらのビデオをぜひご覧ください。 ジュニパー製品でデジタル変革が容易に このサミットではキャンパスのアプリケーションについても議論が行われました。例えば、キャンパスの案内や、持続可能性を考慮したHVACシステムとの統合に加え、新しいテクノロジーへの移行時、Ciscoからジュニパーへの移行時に必要なスタッフのスキルセットの見直しと、トレーニングへの投資の必要性も取り上げられています。 特に議論の中心となっていたのは、組織のエクスペリエンス、学生向けアプリケーション、キャンパスのエンゲージメントを強化するためのアプリケーションの変革でした。これにより、すべての関係者にとってよりシームレスで魅力的なエクスペリエンスを提供することを目指して、プロセスの革新とデジタル化を継続して取り組むことが強調されました。 さらに、レガシーネットワークからAIネイティブネットワーキングへの移行についても深く掘り下げ、データを活用して運用とエクスペリエンスの両方を向上させる方法について議論しました。一部の講演者やゲストは、現代の教育におけるニーズに応えるためのネットワークの移行やアップグレードする方法についての知見、これらの変化をどのように乗り切ったかについての実例を交えて共有しました。 テキサス大学ダラス校、最高技術責任者のブライアン・ドーティー氏は、研究を重視する同校がキャンパス内すべての建物を100ギガビットで接続することを目標に、どのようにしてネットワーキングの刷新を始めたかについて語りました。彼のキャンパスではレガシー機器が度々ボトルネックとなり、テクノロジーに精通した学生たちはRedditなどのソーシャルメディアでその不満を訴えていました。 「Juniper Mist™でアップグレードを完了し、アクセスレイヤーを整備すると、それまでソーシャルメディアに投稿されていた学生からの不満などは何も投稿されなくなりました」とドーティー氏は述べています。 Marvisが問題を数分で解決 プリマス大学のアレックスも印象的な逸話を紹介してくれました。彼の大学では、新しい設備を設置するのは夏期休暇など授業が行われない合間であることが多く、彼がチームと協力してキャンパスに新しいプリンターとドアのアクセス装置を設置している際、特定できないエラーに直面していました。しかし、ジュニパーの仮想ネットワークアシスタントMarvis™のサポートで問題を明確にし、特定のサーバーの再起動によって問題が解決できることを突き止めたのです。 「以前なら、この問題を解決するのに何時間もかかっていたと思います」と彼は述べました。「時間が経つにつれて、信頼感はますます高まっています。Mist Cloudのマイクロサービスには非常に満足しています」 頭痛の種から驚きのエクスペリエンスへ  ジュニパーの戦略について多くの方から評価をいただけて光栄に思います。Juniper Networks Global Higher Education Summitは、業界の専門家とアイデアを交換し、ベストプラクティスを共有し、高等教育のITインフラストラクチャにおけるイノベーションを促進する、コラボレーションと知見に富むプラットフォームとなりました。

Share
Juniper ApstraでAIトレーニングと推論データセンターを自動化1

エンタープライズのIT部門は 、人工知能(AI)の最近の進歩を活用するために「とにかく何かをしなければ」というプレッシャーを抱えています。業界を問わず、研究開発の脇役だった生成AIは、現在では役員が重視する必須課題となっています。しかし、ほとんどのエンタープライズのネットワーキングチームは、どこから手をつけるべきかわかっていません。 AIワークロード用の新しいデータセンターを構築する際には、あらゆる種類の新しいテクノロジーや新しいプロトコルに直面することになりますが、実際には、企業の既存のネットワーキングインフラストラクチャや専門知識の多くをそのまま利用できるのです。当社のお客様にこの事実を伝えると、多くの方が驚きの声を上げます。 ジュニパーでは、新しいAIデータセンターアーキテクチャの展開と運用に関連した固有の課題について、お客様をサポートしています。7月には、AIデータセンター(「AIのためのネットワーキング」)ソリューションを立ち上げ、 Juniper™ Apstraデータセンターファブリック管理と自動化ソフトウェアが担う重要な役割について紹介しました。計画的なファブリックなど、複雑で独自のAIデータセンターの実装は不要です。Apstraが、Day 0の設計からDay 1の展開、Day 2以降の継続的な運用まで、AIデータ センターネットワークのライフサイクルの全段階をサポートします。こちらの新しいソリューションブリーフで詳細をご確認ください。 Juniper ApstraテンプレートでAIデータセンターの展開と運用を簡略化 AIの最近の進歩を活用するために、ネットワークチームは新しいAIデータセンター (AI DC)インフラストラクチャの構築を任されています。AIトラフィックパターン(一般に「エレファントフロー」と呼ばれます)に固有の課題と要件に対応するためには、応答性に優れた、将来を見越したネットワーキングおよび管理アプローチが必要です。これまでの一般的なエンタープライズデータセンターとはまったく異なり、高価なGPU(グラフィック処理ユニット)を最大限に活用し、JCT(ジョブ完了時間)を最小化することで、AIデータセンターの経済性を最適化することがきわめて重要となります。 幸い、あらゆるネットワークチームがすでに使い慣れているイーサネットインフラストラクチャを用いて、この課題に対応できます。ただし、AI DCの場合、新しいネットワークアーキテクチャと新しい手法を通じてイーサネットファブリックを調整し、パフォーマンスを最適化する必要があります。Apstraは、新しいAI DCアーキテクチャとファブリック調整の課題の両方を楽々と処理します。AI DCの設計が、既存のApstraの設計図を使用してテンプレートデザイナーで作成されます。またApstraによるAIトレーニングネットワークの自動調整により、これまでの時間がかかる手動アプローチと比較して、時間と手間を大幅に節約できます。これらの新機能は、既存のApstraライセンスにより無料で提供されます。 従来のワークロードとは異なり、AIワークロード用のAI DCファブリックの設計と設定には固有の要件と課題が発生します。ApstraのAIクラスターテンプレートデザイナーを使用すると、具体的なリソース要件とワークロードに合わせて調整された、検証済みで最適化されたApstraテンプレートをすばやく簡単に作成できます。必要なGPU、サーバー、ラックの数など、最小の入力を指定するだけで、カスタマイズされたラックテンプレートがツールによって生成されるため、リソース利用率を効率化して、パフォーマンスの潜在的なボトルネックを最小化し、数回クリックするだけでネットワークを高い信頼性で拡張できます。「レール最適化」設計を知らなくても、Apstraが構築方法を教えてくれます。データ センターネットワークの運用状態がテンプレートで宣言されているインテントと一致していることを確認するために、Apstraが継続的に検証を行います。 Apstra AIクラスターテンプレートデザイナー AIトレーニング環境は、設計の要件が独特で、接続数が多いため、展開が複雑でエラーが起きやすくなります。Apstraの設計図にはケーブルマップが含まれています。このケーブルマップとラックの立面図情報により、データセンター技術者はリンクとエンドポイントの正確なリストに基づいて、高い精度でケーブル配線作業を完了できます。 GPUサーバーのNIC(ネットワークインターフェイスカード)は、AI DC設計において重要な役割を果たします。GPUのNICをAll-to-Allルーティング用に設定するのは労力がかかり、ネットワークファブリック全体の理解が必要です。人工知能や機械学習用のApstraホストエージェントが、GPUネットワーク設計図から取得した正しいIPアドレスとルーティング情報に基づいて、GPUのNICを自動的に設定します。 Apstra GPU/NIC監視 入手困難なGPUの納入を待っている間にAI

Share
1年を振り返る:AIネイティブネットワーキングによる簡素化、生産性、信頼性、セキュリティの提供

2024年はジュニパーにとって、控えめに言っても刺激的な年でした。HPEによる買収(2025年前半の契約締結に向けて進行中)の件はさておき、ジュニパーは絶えずAIネイティブネットワーキングプラットフォームのイノベーションを推進してきました。またエンタープライズ、サービスプロバイダ、クラウドセグメントにわたってジュニパーの市場投入の目標を継続的に実現しています。 ジュニパーが2024年で成し遂げたすべてのことを大変誇りに思います。ジュニパーのキャンパス&ブランチ、データセンター、WANルーティング、セキュリティの各製品は、主要な病院、ホテル、学校、店舗、キャンパス、工場、サービスプロバイダにおいてITの生産性を向上し、ユーザーや運用担当者に優れたエクスペリエンスをもたらす性能を何度も実証しました。 そこで、この機会に、この1年間での成果を振り返るとともに、2025年にお披露目される、さらなるイノベーションについて少しだけお伝えしたいと思います。 キャンパスとブランチの運用の簡素化 IT運用チームは、ますます複雑化するネットワークに対応し続けるために、これまで以上のプレッシャーにさらされています。また、エンドユーザーの期待値は過去最高となっています。ジュニパーのAIOpsはネットワーク管理を簡素化することで、IT運用チームが事後対応型から事前対応型の管理に移行できるようにサポートします。 事前対応型の管理では、ネットワークエクスペリエンスに影響が出る前に問題の発見と修正が可能になり、その結果、エンドユーザーの満足度が向上し、障害対応チケットが最大90%削減できます。AIネイティブインサイトと自動化によって、IT運用チームは障害対応に費やしていた時間から解放されるようになり、より戦略的なビジネスイニシアチブに時間を費やして専念できます。 Mist AI™はジュニパーのAI for Networking機能の基盤となるものです。ジュニパーは市場初の対話型VNA(仮想ネットワークアシスタント)「Marvis」を開発しました。このVNAは自然言語処理を使用して、事前対応型の推奨事項の提供と、自動運転アクションのサポートを行います。Mist AIは、クライアントからクラウドまでのアクティビティを明確に関連付ける機能を持つ初めてのソリューションでもありました。そしてこの1年は、ジュニパーのキャンパスおよびブランチソリューションを以下の機能により強化することで水準を上げ続けてきました。 Marvis® Minisは業界初かつ唯一のデジタルエクスペリエンスツインであり、ユーザーの接続をシミュレーションすることで無線、有線、SD-WANにわたる問題を特定します。Marvis Minisはエンドユーザーがネットワークに接続していなくても問題を発見し修正することができます。 Marvisのアプリケーションエクスペリエンスインサイトは、ZoomやMicrosoft® Teamsの通話品質を事前に予測し、ユーザーが通話に参加する前に潜在的な問題を特定します。こうした事前対応型の機能により、エンドユーザーに影響が及ぶ前にネットワークの潜在的な問題を迅速に解決できます。 新しいMarvis Actionsは、ブラックホールトラフィックを特定するスイッチポートの構成ミス、トラフィックループを報告するAPループ検知、ISP障害が原因でアクセスできないAPを特定するオフラインAPなどの機能により、無線および有線のトラブルシューティングを強化します。 Wi-Fi 7向けAIは、より高速で遅延が少なく信頼性が高い無線ネットワーキングを実現し、ネットワークを次のレベルへ引き上げます。AIドリブンによる自動化とインサイトを活用し、Wi-Fi 7への移行を効率化します。高密度環境のためのシームレスなパフォーマンスを確保するとともに、問題に事前に対処することで優れたユーザーエクスペリエンスを提供します。 AIネイティブの力をデータセンターまで拡大 2024年では、ジュニパーはデータセンター機能一式も新たに導入しました。パフォーマンスの最適化、運用コストの削減、ネットワーク管理の簡素化のために設計されたものです。 例えば、ジュニパーのApstra™自動化ソフトウェアを基に新しいAIネイティブなApstraクラウドサービスを構築しました。このクラウドベースのアプリケーションスイートは、可視化とAIネイティブインサイトを強化することで、アプリケーションエクスペリエンスと影響分析を改善します。こうしたアプリケーションは、受賞歴のあるVNA機能をデータセンターのお客様にも提供するためにリリースされたデータセンター向けMarvis VNAを見事に補完しています。 AIワークロードはこの1年のジュニパーにとって特に注目すべきものでした。「AIのためのネットワーク」でトップに立ち、お客様のAIへの投資対効果を最大化させるために、ジュニパーはOps4AIラボをリリースしました。この革新的なラボでは、ジュニパーのチームだけでなく、お客様もネットワークパフォーマンスのテストや設計の検証ができるほか、イーサネットファブリックのAIトラフィックを最適化するための新しいJVDや機能も提供しています。さらに、ジュニパーは市場初となる800G PTXルーターおよびQFXスイッチをリリース。ワークロードの大小に関係なく、すべてのデータセンターに比類ないパフォーマンスと拡張性をもたらしました。 こうした新しい機能により、ジュニパーは、最も柔軟に設計可能で、最も管理しやすく、最も迅速に導入できるデータセンターネットワークを実現し、提供します。 広域ネットワーキングのための新基準の設定 ジュニパーは、WAN(広域ネットワーキング)を効果的に再定義し、比類ないパフォーマンス、信頼性、簡素化を実現しました。最先端のハードウェアとAIを活用した機能を駆使して、ジュニパーは業界をリードする企業が現在の課題に対応しつつ将来にも備えられるWANを構築できるようにサポートします。以下は、この1年のジュニパーによるWAN関連イノベーションの一部です。 業界屈指の拡張性と効率性を実現した800Gルーター:膨大な帯域幅要件に対応し、最新のアプリケーションや高密度環境向けの優れたパフォーマンスを確保できるように設計されています。

Share
不動産およびファシリティの利用状況と占有率に関するインサイトからビジネスを最適化

利用者や訪問者のエクスペリエンス向上から競争優位性の獲得や効果的な環境保護の取り組みまで、ファシリティ(施設や設備)の利用と占有率に関するインサイトは、小売店、オフィス、病院、教育機関にとって非常に貴重な情報になります。しかしながら、ファシリティ、不動産、事業の管理者にとって、建物の正確な利用状況を効率的に、他に影響を与えることなく長期にわたって追跡し、実用的なインサイトを得ることは、実際に行うとなると大変な作業になります。 このブログでは、従来のファシリティ管理分析に見られるギャップについて探るとともに、Juniper Mist™の占有分析の独自の機能がどのようにして他に類を見ないインサイトを引き出し、これが建物と敷地の快適性、適切な整備、安全性、効率的な使用を実現するうえでどのように役立つのかをご紹介します。 これまで欠けていたもの 従来のファシリティ管理分析にはいくつかの欠点があり、そのためスペースの利用状況とリソース配分に関するインサイトには限られた価値しかありませんでした。 きめ細かさの不足:ほとんどの分析で提供されるのは概要データのみであり、ファシリティ内の特定のエリアについて情報に基づいた決定を下せるほどの十分な詳細を得られない 静的またはサイロ化されたデータへの依存:静的またはサイロ化されたデータソースが分析に利用されることが多く、スペース利用状況の変化をリアルタイムかつダイナミックに把握することができない 長期トレンドの追跡における柔軟性の欠如:ソリューションは通常、短期的な枠組でしかトレンドを捉えないため、経営者にとっては、パターンを正確に特定して事前対応で長期にわたった計画を立てることが困難 業界を横断しての適応性の限界:多くの分析システムでは、過度に一般化されたインサイトが提供されるため、ヘルスケア、教育、小売業といった業界独自のニーズに対応できない Juniper Mistの占有分析で掘り下げる JuniperのPremium Analyticsサブスクリプションの占有分析およびエンゲージメント分析で提供されるのは、単なる概要データではありません。BLE(Bluetooth® LE)が統合されたジュニパーの強力なWi-Fiアクセスポイントから得られたデータをもとに、ファシリティ内でのユーザーの行動に関する詳細なインサイトが提供されます。 先進技術を活用することで、ジュニパーは従来のソリューションのレベルを超える詳細な分析を提供し、お客様がスペースの利用状況を正確に把握して情報に基づいた意思決定ができるようサポートします。お客様が管理する大規模な企業オフィス、小売店舗、病院、大学キャンパスなど、ジュニパーのデータドリブンの分析により、スペース利用について情報に基づいた決定を下すのに必要な情報と統計が提供されます。これらの情報は次の概念に基づきます。 人流 滞在時間 ゾーン占有率 例えば、小売店の経営者は、買物客の人流の変化を1年を通して追跡し、それに応じて従業員の配置や在庫水準を調整できます。病院であれば、患者の流入出パターンを日ごとに把握し、待ち時間を最適化して患者のエクスペリエンスを向上させることができます。教育機関の場合は、学生が建物、図書館、教室を利用するパターンについてインサイトを得ることで、年間を通して、ピーク期間中のキャンパスと建物の管理を改善できます。 図1. 全訪問者およびロイアリティ訪問者の観測値(日/週/月ごと) 長期にわたる高人流ゾーンおよび滞在時間を把握する 利用者がファシリティ内のどこに最も長く滞在しているかを知ることは、建物のフロアプランとリソース配分について情報に基づいた決定を下すうえで不可欠です。ジュニパーのダッシュボードで、人流が多いゾーンを特定し、滞在時間、または利用者が特定のエリアにいた時間に関するデータを、最長13か月の期間にわたって確認できます。この機能が特に役立つケースとして、小売環境での商品配置の最適化、オフィス環境での照明、HVAC、アラームのプログラミング、病院やオフィスにおける混雑管理と利用者の流れの改善が挙げられます。 図2. ファシリティ内のさまざまなエリアの訪問者/デバイスの滞在時間 Mistの占有分析で得られるインサイトを利用して、組織の意思決定者はレイアウトを調整するか、ユーザーエクスペリエンスの向上を目的とする戦略を実行できます。例えば、サービスやスタッフの配置を最も必要とされるところに変更します。また、小売環境では、買物客が店内の特定のセクションに滞在する時間が長い、特定の場所から別の場所へ何度も移動している、などということがわかるかもしれません。そうであれば、そのスペースをより適切に活用できるようにデザインを見直すことができます。 図3. ファシリティの特定のエリアから別のエリアへ客がどのように移動しているかを表示(数日、数週、数か月単位) 時系列トレンド:パターンを見つけて業務を最適化する さまざまなダッシュボードで時系列の幅(時間/日/月)を変更できるため、行動の変化を時間経過に沿ってモニタリングできます。これらのトレンドからファシリティの利用状況の変化を明らかにすることができ、管理者はニーズを予測して問題になる前に対処できます。オペレーションとファシリティのチームは、暖房、照明、人員レベルを予測される占有率に応じて調節するなど、需要の変化に事前に対応できます。不動産管理チームも、長期にわたるスペースの利用状況を把握して、将来的にポートフォリオに関してより適切な決定を下すことができます。

Share
AIデータセンターネットワークのABC:構築するか購入するか、そのコスト(ブログ3回シリーズの最終回)

このブログシリーズの初回では、LLMのトレーニングにおける課題を取り上げました。前回は、AIに投資する企業のLLM消費モデルであるMaker(作成者)、Taker(使用者)、Shaper(形成者)、RAGを確認しました。今回は、AIアプリケーションの導入モデルと、各モデルのコストに関する検討事項について説明します。 AIの導入により、AIデータセンターが大きく成長し、投資が大幅に増加しています。以前はクラウドプロバイダがほぼ独占状態でしたが、現在は企業がプライベートデータセンターを利用して自社のAIデータセンターを拡張し、AIワークロードとアプリケーションの制御を自ら行うようになっています。 AIデータセンターへの投資を最大限に活用する IDCによると、AIデータセンターのスイッチング機器への企業投資が、2027年までに10億米ドルに増加し、年平均成長率が158%になると予測されています。クラウドプロバイダのスイッチングも同期間で年平均成長率91.5%と顕著な増加が続くと見込まれますが、一部の企業は、ハイブリッドクラウド戦略を採用するために、トレーニングや推論のワークロードの一部をプライベートデータセンターへ移す予定です。 生成AIで意味のある結果を引き出すには、モデルで自社データを使用しなければならないとほとんどの企業が気づいています。AIによるデジタル変革は、従業員に業務でパブリックLLMを使用するよう指令を出すように簡単にはいかないのです。 構築と購入:どちらを選ぶか? 自社のプライベートデータセンターを構築する。パブリッククラウドプロバイダからAIサービスを購入する。両方を組み合わせたハイブリッドクラウドモデルを使用する。どれを選択しても結局は大きな問題が立ちはだかります。 データの機密性:扱っている機密データや専有データローカルは、プライベートクラウドに保存する必要がある、もしくはデータの地理的境界を制限するデータ主権ルールの対象になっていませんか? テクノロジー業界や金融業界、政府機関、医療業界のユースケースでは、知的財産を保護するため、あるいは訴訟を避けるためにプライベートデータセンターが必要になる傾向があります。 専門知識:データサイエンスやネットワーキングに関する知識のある従業員はどの程度いますか? 適切な人材を確保している場合は、プライベートデータセンターの展開が強力な選択肢になります。しかし、そうでなければ、社内で専門知識を養うかアウトソーシングしなければなりません。 地理的要因:自社のデータセンターニーズをサポートできる十分なファシリティ(施設や設備)が、必要とされる場所にありますか? GPUあたり700W消費するため、大規模なトレーニングクラスターでは、既存のファシリティにコストのかかる電力のアップグレードが必要になることもあります。あるいは、電力を予算内に抑えるため、AIクラスターをさまざまな場所にあるデータセンターに分散することもできます。RAGなどの推論パフォーマンスにより、AIデータセンターがエッジの方へ移る可能性があります。そうなると、小さなAIクラスターが物理的にユーザーに近づきます。例えば、IoTアプリケーションが製造現場に展開されることになります。また、ハイブリットアーキテクチャでは、トレーニングや推論、RAGのためのAI機能を適切な場所に展開するために、データセンターを構築できる場所では構築し、構築できないが必要な場所では購入することができます。 市場投入期間:市場投入に対する圧力はありますか? 即時の投入を求められているなら、パブリッククラウドサービスです。市場投入期間が短縮され、プライベートデータセンターの導入を計画したりする貴重な時間を確保できます。AIによる変革はどこまで進んでいますか? まだ着手したばかりで、自社での効果を知るために実験を繰り返す必要がある状態ですか? その場合も、パブリッククラウドがお勧めです。しかし、AIに熱心に取り組んでいて、ビジネスのさまざまな分野での使い方を計画している場合は、経済分析によると、一般にプライベートクラウドインフラストラクチャへの投資が推奨されます。 企業戦略:多くのクラウド変革プロジェクトがそうであるように、AIへの取り組みも部門レベルで始まることが多く、特定の顧客や運用上の課題の解決を目的に、独立したAIクラスターがさまざまな場所で作り出されています。企業が、AIインフラストラクチャの統合や共有を進める包括的な企業戦略を立てれば、AIの投資コストの償却効率も上がり、プライベートデータセンターのAI投資を既存の企業予算内に収めることができます。 当初、パブリッククラウドはAIテクノロジーのイノベーターや早期導入者にとって唯一の選択肢でした。依然として大半のAI戦略でパブリッククラウドが重要ではありますが、データのセキュリティやコストに対する懸念から、プライベートデータセンターやハイブリッドクラウドアーキテクチャが主流になりつつあります。ジュニパーのオンラインイベント「Seize the AI Moment(AIでチャンスをつかむ)」では、お客様、パートナー、業界の専門家が独自のハイブリッドクラウドのユースケースや戦略について議論しています。その中では、金融機関のデータセキュリティ問題や、コストとパートナーのバランスを取るためのハイブリッドクラウドを使用した戦略などが話題になりました。 コスト:費用のかかるAIの世界でROIを最大化 どの導入モデルでも、AIの展開に費用がかかることに変わりはありません。AIのコストは、予算、専門知識、時間の観点から計算されますが、いずれの要素もリソースに限りがあります。専門知識と時間のコストは企業によって異なりますが、AIへのハードダラー投資は市場主導で変化し、割り当てられた予算のみが障壁になります。 GPUサーバー1台あたりのコストは、およそ40万ドル。そのため、小規模AIデータセンターのインフラストラクチャコストだけでも数百万ドルになる可能性があります。しかし、希望の光も見えてきました。PyTorch 2.0のようなAIフレームワークが、NVIDIA製チップセットとの緊密な統合や依存を解消したのです。これにより、IntelやAMDなどの競合GPU製品にも扉が開かれ、市場力学が崩壊し、コストの正常化に向かっています。 現状レベルでは、パブリッククラウドプロバイダからAIサービスを購入したほうが、プライベートAIデータセンターを構築するよりコスト効率に優れていると容易に予測できます。一方、ACG Researchの最新の総所有コスト(TCO)分析からは異なる結果が出ています。プライベートAIデータセンターとパブリッククラウドでホストされる同等のAIサービスの3年間のTCOを比較したところ、プライベートデータセンターモデルの方がTCOを46%節約できることがわかりました。この主な原因は、パブリッククラウドサービスに関連する高額な定期コストです。 ACGのレポートでは、AIデータセンターの構築コストについても、InfiniBandとイーサネットのネットワーキングコストを比較して詳しく分析しています。その結果、ジュニパーのイーサネット(RoCE v2)とJuniper

Share
AIデータセンターネットワークのABC:アプリケーション(ブログ3回シリーズの第二弾)

このブログシリーズの初回のブログでは、基盤となる大規模言語モデル(LLM)の開発の複雑さと、開発に必要な膨大なリソースについて取り上げ、多くの企業にとってこの開発が手の届かないものであることを説明しました。今回は、すべての企業がこれらの基盤となるLLMを、自社のプライベートデータセンターで活用できる選択肢を紹介します。 128のGPUを備えた小規模なAIデータセンターであっても、導入には数百万ドルのコストがかかるため、効率性に投資することがコスト抑制の鍵となります。この投資アプローチは、ジュニパーが提唱するAIデータセンターのABC、つまり、アプリケーション(Application)、構築(Build)または購入(Buy)、コスト(Cost)に基づいています。このブログでは、特にアプリケーションのニーズが企業のAI投資におけるAI消費モデルにどのように影響するかについて見ていきます。 アプリケーションの複雑さ AIへの投資を計画する際には、まずAIアプリケーションから期待される目標、目的、成果を理解することが重要です。貴社のユースケースは、カスタマーエクスペリエンスを向上させるためのAIを活用したサポートアシスタント、文書解析ツール、または技術文書アシスタントなど、より汎用的なものでしょうか? それとも、業界や企業特有の、よりカスタマイズされ差別化されたAIアプリケーションでしょうか? カスタマイズのレベルが高くなるほど、すでに複雑な開発プロセスがさらに複雑になり、それが基盤となるLLMやアプリケーションの消費モデルに影響を与えます。 McKinsey Consultingは、AIアプリケーションを導入するための3つのアプローチを、Maker(作成者)、Taker(使用者)、Shaper(形成者)と定義しています。 作成者は業界の大手プレイヤー 作成者は、インターネットデータを元に独自の基盤となるLLMを開発するための財政的手段と専門知識を持つ、世界でごくわずかな企業です。これらの企業には、Google(Gemma、Gemini)、Meta(Llama)、OpenAI(GPT)、Anthropic(Claude)、Mistral(Large、Nemo)、Amazon(Titan)などがあります。LLMの開発が主要な業務ではないほとんどの企業は、使用者または形成者の道を選ぶことになります。 使用者は既存のAIアプリケーションをそのまま活用 汎用的なカスタマーチャットボットや、自然言語処理(NLP)を既存のデータベースに接続するなど、あまり複雑でないサービスを導入する企業は、既製のLLMをカスタマイズする必要はありません。企業は、ライセンス版でもオープンソース版でも、事前にトレーニングされたLLMに基づいた既存のAIアプリケーションを「使用」し、そのモデルを推論のために導入できます。 今日、これらのアプリケーションはほとんどの企業にとって必須の要素となっています。つまり、競争上の差別化はほとんどないかもしれませんが、複雑さが減少することで導入が効率化され、アプリケーションが期待される成果を達成すれば、不要な支出を削減できます。Hugging Faceからは、AIライブラリのリポジトリを通じて、企業は40万以上の事前にトレーニングされたLLM、15万以上のAIアプリケーション、10万以上のデータセットにアクセスできるため、AIを迅速かつ効率的に導入するための多くの選択肢があります。 形成者はLLMを独自のものにする企業 競争上の差別化やカスタマイズされたワークフローアプリケーションを必要とする企業にとって、既製のLLMやアプリケーションでは十分でない場合があります。形成者は、事前にトレーニングされたLLMを使用し、そのモデルを自社独自のデータセットを使用して微調整することで「形成」します。その結果、どんなプロンプトにも非常に具体的で正確な回答を提供するLLMが完成します。このモデルから恩恵を受けるアプリケーションには、以下が含まれますが、これらだけに限りません。 特定の業務機能に合わせてLLMを調整し、業務を効率化し、単調さを軽減するワークフローの自動化 内部ポリシー文書、規制ルール、または法的改正を比較して、特別な考慮が必要な違いを特定するためのAIサポート 特定のオペレーティングシステム、CLI、および文書に基づいてトレーニングされたCopilotによる、コード開発や文書検索の簡素化 RAG推論を活用 このシリーズの最初のブログで説明したように、推論システムはトレーニングされたAIアプリケーションをエンドユーザーやデバイスに提供します。モデルのサイズによって、推論は単一のGPUやサーバーに導入することも、複数のサーバーにアプリケーションを分散させてスケールとパフォーマンスを向上させるマルチノード導入として実施することもできます。 比較的新しい技術である「リトリーバルオーグメンテッドジェネレーション(RAG)」は、企業がAIモデルの開発や導入をカスタマイズするための興味深い手法を提供します。RAGは、外部のデータソースから取得した補足データを用いて、事前にトレーニングされたLLMを強化します。RAGを使用すると、ユーザーのクエリからベクトル埋め込みが取得されます。そのベクトル埋め込みに最も近い一致が、外部データソースに対するデータのクエリに使用されます。取得された最も関連性の高いテキストやデータの断片は、元のプロンプトと共にLLMに渡され、推論が行われます。元のプロンプトに関連するローカルデータを提供することで、LLMはその追加データと自らの知識を組み合わせて回答を生成できます。LLMを再度トレーニングすることなく、RAGは顧客やデバイスからのクエリに対して具体的かつ正確な回答を提供します。 RAGは、使用者モデルと形成者モデルの間に位置し、企業が市販のLLMを微調整せずに活用できる手段を提供します。しかし、元のプロンプトクエリと共に追加のデータソース(多くの場合、ベクトルデータベース)にアクセスする必要があるため、フロントエンド、外部データソース、LLM間のネットワーク接続には、高いパフォーマンスと非常に低いエンドツーエンドの遅延が求められます。 LLMの消費モデルが定義された後、企業はトレーニングと推論モデルのための導入モデルを選択する必要があります。次のブログでは、「構築」と「購入」の選択についてと、それぞれに関連するコストについて検討します。

Share
AIデータセンターネットワークのABC:はじめに(ブログ3回シリーズの第一弾)

AIモデルのトレーニングは特別な課題です。Llama 3.1やGPT 4.0など、基盤となる大規模言語モデル(LLM)の開発には、世界中でもごくわずかな大企業だけが実現できるような莫大な予算とリソースが必要です。これらのLLMは、数十億から数兆個のパラメーターを持ち、合理的なジョブ完了時間内でトレーニングを行うためには、複雑なデータセンターファブリックの調整が必要です。例えば、GPT 4.0は1.76兆個のパラメーターを使用しています。 これらの数字を具体的にイメージするため、各パラメーターを1枚のトランプのカードに置き換えて考えてみましょう。52枚のトランプのデッキは約0.75インチ(約1.9cm)の厚さです。100万枚のカードを積み重ねるとエンパイアステートビルディングよりも高くなり、10億枚のカードを積み重ねると228マイル(約367キロメートル)の高さで地球の熱圏までに達し、1兆枚のカードを積み重ねると約227,000マイル(約365,000キロメートル)で、月までの距離に相当します。 AI投資を最大限に活用 多くの企業にとって、AIへの投資は新しいアプローチが必要です。それは、これらの基盤となるLLMを自社のデータで改良し、特定のビジネス上の課題を解決、そしてより深い顧客との関わりを提供することです。しかし、AIの導入が広がる中で、企業はデータプライバシーの強化やサービスの差別化を目的とした新たなAI投資の最適化方法を求めています。 ほとんどの企業にとって、これはオンプレミスのAIワークロードの一部を、プライベートデータセンターに移行することを意味します。「パブリッククラウド対プライベートクラウド」のデータセンター論争は、AIデータセンターにも当てはまります。多くの企業は、AIインフラを構築するという新しい課題に圧倒されています。確かに課題ではありますが、乗り越えられないものではありません。既存のデータセンターの知識を使用できます。少しのサポートがあれば大丈夫です。ジュニパーがそのガイド役を務めます。 このブログシリーズでは、AIへの投資を検討する企業にとってのさまざまな考慮事項と、ジュニパーが提唱するAIデータセンターのABCに基づくさまざまなアプローチについて紹介します。ABCとはつまり、アプリケーション(Application)、構築(Build)または購入(Buy)、コスト(Cost)を意味します。 まず初めに、なぜAIインフラがこれほどまでに特化される必要があるのかを見ていきましょう。 LLMおよびニューラルネットワークの理解 インフラの選択肢をよりよく理解するためには、AIアーキテクチャの基本と、AIの開発、提供、トレーニング、推論における基本的なカテゴリについて理解すると役立ちます。 推論サーバーは、インターネットに接続されたフロントエンドのデータセンターでホストされており、ユーザーやデバイスが完全にトレーニングされたAIアプリケーション(Llama 3など)にクエリを送信できるようになっています。TCPを使用すると、推論クエリやトラフィックのパターンは他のクラウドホスト型ワークロードと同様になります。リアルタイムで行われる推論では、一般的な中央処理装置(CPU)や、トレーニング時に使用されるのと同じグラフィック処理装置 (GPU)を用いることで、最速の応答と最低の遅延を提供します。これは通常、初回トークンの応答時間や、インクリメンタルトークンの時間といった指標で測定されます。要するに、これはLLMがクエリにどれだけ速く応答できるかを示しており、大きなスケールでは、一貫したパフォーマンスを維持するために大規模な投資と専門知識が必要になる場合があります。 一方で、トレーニングには特有の処理上の課題があり、特別なデータセンターのアーキテクチャが必要となります。トレーニングは、LLMやトレーニングデータセットが「無秩序な」インターネットから隔離された、バックエンドのデータセンターで行われます。これらのデータセンターは、400Gbpsや800Gbpsのネットワーキング接続を使用する、専用のレール最適化ファブリックを備えた高容量で高性能のGPUコンピューティングおよびストレージプラットフォームを使用して設計されています。大規模な「エレファント」フロー(大量データ転送)や広範囲なGPU間通信が発生するため、これらのネットワークは、数か月に及ぶ継続的なトレーニングサイクルに対応できるよう、容量、トラフィックパターン、トラフィック管理のニーズに合わせて最適化される必要があります。 トレーニングの完了までにかかる時間は、LLMの複雑さ、LLMをトレーニングするニューラルネットワーク内の層、精度向上のために調整すべきパラメーター、そしてデータセンターのインフラストラクチャの設計によって異なります。しかしニューラルネットワークとは何でしょう? そしてLLMの結果を改善するパラメーターとは何でしょう? ニューラルネットワークの基本 ニューラルネットワークとは、人間の脳の計算モデルを模倣するように設計されたコンピューティングアーキテクチャです。ニューラルネットワークは、データを取り込む入力層、結果を出力する出力層、そして入力された生データを有用な情報に変換する中間の隠れた層から成る、段階的な機能層で実装されています。ある層の出力が次の層の入力となり、クエリが体系的に分解、分析、処理されることで、各層のニューラルノード(または数学的関数)を通じて結果が生成されます。 例えば、下の画像は、最初の4つの偶数を示す手書きの数字を認識するために、LLMがニューラルネットワーク上で訓練される様子を示しています。このニューラルネットワークには2つの隠れた層があり、1つは形状を処理し、もう1つはパターンを認識します。手書きの数字のデータセットは小さなブロックに分割され、モデルに入力されます。最初の層では曲線や線が処理され、その後データは2番目の層に送られて、分析されている数字を示す可能性のあるデータ内のパターンが識別されます。 最適なLLM精度のためのパラメーター調整 各層内のニューラルノードは、ニューラルネットワーク接続のメッシュを持っており、これによりAI科学者は各接続に重みを適用できます。各重みは数値であり、特定の接続への関連性の強さを示します。例えば、データの上部四分割の1つにある曲線は「2」や「8」に対して重みが高い一方で、同じ四分割にある直線は「2」や「8」に対して重みが低いことになります。パターンを見る際に、縦の直線だけの組み合わせは「4」に対してつながりが強く重みは高いですが、直線と曲線が組み合わさると、「2」や「6」、「8」に対してよりつながりが強く重みは高くなります。 トレーニングの開始時には、モデルの結果は非常に不正確です。しかし、トレーニングを重ねることで、これらのニューラルのつながりの重みが調整または「チューニング」され、精度を段階的に向上させることができます。強いつながりと弱いつながりをさらに区別するために、各つながりには数値的なバイアスが適用され、強いつながりを強調し、弱いつながりを調整します。重みとバイアスはともに、LLMの精度を向上させるために調整する必要があるパラメーターを表します。 この簡単な例では、モデルが各数字を高い精度で識別できるようになるまでに、242個のパラメーターを繰り返し調整する必要があります。数十億または数兆個のパラメーターを扱う場合、このプロセスを自動化するため、逆伝播アルゴリズムが使用されます。それでもトレーニングは非常に長いプロセスであり、データセンターの基盤となる物理ネットワークで発生する処理によって遅延したり中断されることがあります。「テールレイテンシ」と呼ばれるこの遅延は、データセンターネットワークが適切に設計されていないと、トレーニングプロセスの時間とコストを大幅に増加させる可能性があります。 次のブログでは、企業がこれらの基盤となるLLMを活用して、自社のカスタムAIアプリケーションを導入し、プライベートデータセンターから提供する方法について説明します。 他の企業がこれらの課題に取り組むために、どのようにインフラストラクチャを構築しているか、ご興味はありますか? ぜひジュニパーのバーチャルイベント、「Seize the AI

Share
Marvis Clientでデバイスからクラウドまで可視化、Wi-Fiエクスペリエンスを最適化

今日の企業では、Wi-Fiのパフォーマンスとビジネスのパフォーマンスは密接に結び付いています。 接続が不安定になると生産性が低下するだけでなく、シームレスなWi-Fiエクスペリエンスの確保のためITネットワーク管理者の負担も増すことになります。ネットワークに接続するデバイスがかつてないほど増えている昨今、ネットワークパフォーマンスを明確に可視化して実用的なインサイトを得ることが、急激にビジネスクリティカルなニーズとなっています。 これまで、ネットワークパフォーマンスに関するインサイトは一方的なもので、AP(アクセスポイント)の側から限定的にネットワークを把握できるのみでした。APに接続されたクライアントの側から見た詳細なインサイトは、これまで提供されてきませんでした。Marvis® Clientの導入により、ジュニパーは、ユーザーのデバイスから直接ユーザーのWi-Fiエクスペリエンスを確認できるという、これまでにない可視性を提供できるようになりました。 Marvis Clientはネットワークの管理とトラブルシューティングを強化し、IT運用チームがネットワークパフォーマンスを事前対応で最適化します。このブログでは、必要なクライアント側のデータとツールをどのように利用できるのかを紹介いたします。Marvis ClientがMarvis VNA(仮想ネットワークアシスタント)とともに、どのようにして優れたユーザーエクスペリエンスを裏付ける詳細な可視化と迅速なトラブルシューティングを実現するのかを説明します。 クライアント側からのWi-Fiの把握 クライアントがネットワークをどのように認識しているかを把握することは、Wi-Fiネットワークにおいて常に大きな課題となってきました。接続の切断、データレートの低下、ローミングの問題などエンドユーザーから頻繁に問題が報告されますが、影響を受けたデバイスから得るインサイトが欠けているため、根本的原因を切り分けて診断することは困難でした。 Marvis Clientは、エンドユーザーのデバイス側からのWi-Fiエクスペリエンスを詳細に可視化することで、この問題を解決します。Android、Windows、macOS搭載のデバイスにMarvis Clientをインストールすると、IT管理者はデバイスのタイプ、オペレーティングシステム、無線ハードウェア、ファームウェア、接続情報などの豊富な情報を確認できます。Marvis ClientからJuniper Mist® Cloudに情報が渡され、Marvisがその情報を分析することで、実用的なインサイトが得られます。 例えば、デバイスに接続の問題が発生した場合、Marvis Clientは、問題が特定のドライバーバージョンによるものか、信号干渉によるものか、または無線ファームウェア構成が規格外であることによるものかを識別できます(図1参照)。このような詳細なインサイトにより、ネットワーク管理者はより迅速に問題を特定して解決できるようになり、MTTR(平均問題解決時間)の短縮につながります。 図1. Mistのダッシュボードに表示されたMarvis Client Marvis VNAとの連携 Marvis Clientは、単独では機能しません。ジュニパーの画期的なAIネイティブアシスタントであるMarvis VNAと連携することでネットワークデータを分析し、問題を特定することでリアルタイムに解決策を提案します。AIネイティブ機能を介してMarvis VNAはネットワークデバイスとクライアントデバイスの両方から継続的にデータを取得し、ネットワーク環境の全体図を構築します。 Marvis ClientとMarvis VNAが連携することで、ジュニパーのAIネイティブネットワークのサポートモデルにおける重要な部分が完成します。これにより、IT運用チームはAPから接続クライアントに至るネットワークの全体像を把握し、高い精度で問題を診断して解決できるようになります。カバレッジのギャップの特定、クライアントによるAP間のローミングの方法の把握、デバイスの接続状況の視覚化など、Marvis

Share
WAN2xプログラムで2倍のコスト削減と2倍の製品寿命を実現

急速に進化する今日のデジタル環境では、ネットワークインフラストラクチャの重要性がかつてないほど増しています。ニーズの増大に対応するためには、拡張性、簡素化、俊敏性が必要です。レガシーWANインフラストラクチャを刷新する際には、さまざまな課題や複雑な事態に直面することをジュニパーネットワークスは理解しています。WAN2xインセンティブプログラムの提供を開始したのも、そうした理由からです。 WAN2xでは、2倍のコスト削減と2倍の製品寿命を実現します。比類のないインセンティブでネットワークをアップグレードでき、パフォーマンスや持続可能性に優れ、簡素化と自動化を実現するジュニパーのAIネイティブソリューションを利用できます。 WAN2xの革新的な機能を活用 WAN2xインセンティブプログラムにより、ネットワークを刷新することで多くのメリットを獲得できるようになります。旧式のシステムからの移行を必要としている組織も、運用の簡素化を求めている組織も、WAN2xにより適切なツールとリソースを獲得でき、それによってコスト削減を実現できます。 ジュニパーのサポートにより、ネットワークを変革してビジネスに成功をもたらすことができたお客様の事例をいくつか紹介します。 お客様の導入事例 Golden West Telecommunications:柔軟性を最新化 Golden Westは、1916年創設の会員制協同組合で、サウスダコタ州の農村部向けに通信サービスを提供しています。シャーシベースのレガシーシステムを使用していた同組合はさまざまな課題に直面しており、最新の拡張性、効率的なライセンス、今後の成長に対応できる柔軟性を備えたソリューションを必要としていました。Golden Westが求める以下の条件をすべて満たしていたのが、ジュニパーのACX7000シリーズでした。 コストが最適化された、拡張可能な汎用シリコン 業界標準に沿った、簡素化されたライセンスモデル 導入とメンテナンスを容易に行うためのJuniper® Paragon Automation 上記の機能とWAN2xキャンペーンの組み合わせにより、低コストで容易に移行を実現できました。ジュニパーの導入を即決したGolden Westは、将来に備えた俊敏なAIネイティブネットワークを活用できるようになりました。 政府機関:現状維持から業務変革へ 政府機関にとって、安定性、セキュリティ、イノベーションは非常に重要です。ある大規模政府機関は、複数の候補を検討した結果、自動化機能とセキュリティ機能において業界のリーダー的な製品であるジュニパーのMX304ルーターを採用しました。採用の大きな決め手となったのは、WAN2xキャンペーンにおいて以下が提供されることでした。 ジュニパーの専任エキスパートが移行をサポート 新プラットフォームに関する包括的なトレーニング 堅牢な自動化機能とセキュリティ機能に裏打ちされた円滑な移行の保証 WAN2xインセンティブを活用して、同機関は安全なネットワークインフラストラクチャを変革しました。これにより、拡張性と安定性がここ数年間は保証されることになりました。 ジュニパーのWAN2xインセンティブプログラムが選ばれる理由 WAN2xプログラムのメリットは、コストを削減できることだけではありません。以下のようなメリットもあります。 変革を進めるのが容易 機能パリティ評価 既存のインフラストラクチャにシームレスに統合

Share
チャネルパートナーが管理するエンタープライズディスカウントプログラムの価値

最初に明確にすると、エンタープライズディスカウントプログラム(EDP)とは、主要なパブリッククラウドプロバイダのサービスを割引料金で提供して、企業のお客様のコストを削減できるようにするプログラムです。ジュニパーはAWS、Google、Microsoftの3社とパブリッククラウドパートナーシップを締結しています。これにより、企業は、柔軟で費用対効果が高く、拡張性のあるシステムを構築できます。たとえば、AWSとのパートナーシップでは、数量割引、リザーブドインスタンス割引、カスタム価格設定契約など、さまざまなエンタープライズディスカウントプログラムが提供されています。 EDP契約を結んだ場合、お客様は実際の利用量にかかわらず、一定の期間(通常は1~5年間)にわたって最低限の特定料金を支払うことになります。EDPは、クラウドインフラストラクチャを今後も積極的に使用する予定の企業や、リソースのクラウドへの移行を今後さらに進める予定の企業に最適です。 EDPの割引、サービス、拡張性を活用 前述のとおり、EDPを利用すると、特に利用量が多いお客様は、クラウドサービスを大幅な割引料金で利用できるようになります。また、EDPの価格構成も、お客様があらかじめ定めた支出額に合わせて、予測がしやすいものとなっています。AWSの場合、すべてのサービスが単一の契約にまとめられているため、調達のプロセスを効率化できます。また、お客様を速やかにサポートする専用のAWSサポートプランも含まれています。 チャネルパートナーが管理するEDPのメリット EDPの継続的な管理をチャネルパートナーに任せるということは、EDPに関連する重要な業務をパートナーが代わりに行うということです。これには、次のようないくつかのメリットがあります。 戦略的コラボレーション:チャネルパートナーはお客様のチームの一部となり、チームと緊密に連携してEDPを最適化します。これには、契約更新、コンプライアンス、サポートなどの業務も含まれ、これにより、お客様の社内リソースは他の重要な業務に専念できます。 日々の運用:利用状況の監視、支出額の追跡、EDPの条件の遵守など、日常的なタスクをパートナーが行います。チャネルパートナーは、お客様とパブリッククラウドプロバイダの間の調整役となり、コミュニケーションを効率化して問題を解決します。  コストの最適化:チャネルパートナーは、積極的に利用状況を監視し、非効率な部分を特定して、コストを最適化するための方法を提案します。これにより、お客様はEDPのメリットを最大限活用できます。 事前対応のサポート:チャネルパートナーは事前対応でサポートを提供して、あらゆる問題への速やかな対応、リソース拡張の支援、設定の調整、ワークロードの最適化などを行います。この専門的なサポートにより、円滑な運用が実現し、中断を最小限に抑制できます。  戦略的な計画策定:チャネルパートナーは、日々のタスクだけでなく、長期的なクラウド戦略の策定にも協力します。お客様のビジネス目標、成長計画、テクノロジーロードマップに沿ったEDPを提供します。  市場インサイト:チャネルパートナーは、市場の知識、トレンド、競争優位性につながるインテリジェンスを提供します。これにより、お客様は最新の情報を得ることができ、これに基づいてEDP戦略を適用できます。 関係の構築:効果的なEDP管理により強力なパートナーシップが育成され、信頼、透明性、相互理解が構築されて、全体的な関係性が強化されます。 最後に、チャネルパートナーが管理するEDPでは、お客様はEDPのメリットを最大限活用しながら、クラウドへの移行を進めることができます。 ジュニパーでクラウドのコストを最適化 ジュニパーは、クラウド市場に参加するネットワークプロバイダの中でも独自の地位を築いています。従来のネットワーキングインフラストラクチャ(ファイアウォール、ルーター、Wi-Fiアクセスポイントなど)でもSaaS機能を提供するようになったため、マーケットプレイスのプライベートオファーを通じてジュニパーのSaaS機能を購入すると、その購入金額はお客様が定めた支出額に加算されます。 ジュニパーのパートナーにとっては、お客様のテクノロジーに関するニーズと市場で利用できる経費とのバランスを取ることができるため、大きな付加価値となります。結果として、クラウドの予算を最大限活用するのに合わせてテクノロジーを戦略的に強化するという、他にない機会を得られます。 AWS、Google、Microsoft Azureのマーケットプレイスから購入するには、こちらのマーケットプライスのプライベートオファーを開始(英語)にアクセスしてください。

Share