不動産およびファシリティの利用状況と占有率に関するインサイトからビジネスを最適化

利用者や訪問者のエクスペリエンス向上から競争優位性の獲得や効果的な環境保護の取り組みまで、ファシリティ(施設や設備)の利用と占有率に関するインサイトは、小売店、オフィス、病院、教育機関にとって非常に貴重な情報になります。しかしながら、ファシリティ、不動産、事業の管理者にとって、建物の正確な利用状況を効率的に、他に影響を与えることなく長期にわたって追跡し、実用的なインサイトを得ることは、実際に行うとなると大変な作業になります。 このブログでは、従来のファシリティ管理分析に見られるギャップについて探るとともに、Juniper Mist™の占有分析の独自の機能がどのようにして他に類を見ないインサイトを引き出し、これが建物と敷地の快適性、適切な整備、安全性、効率的な使用を実現するうえでどのように役立つのかをご紹介します。 これまで欠けていたもの 従来のファシリティ管理分析にはいくつかの欠点があり、そのためスペースの利用状況とリソース配分に関するインサイトには限られた価値しかありませんでした。 きめ細かさの不足:ほとんどの分析で提供されるのは概要データのみであり、ファシリティ内の特定のエリアについて情報に基づいた決定を下せるほどの十分な詳細を得られない 静的またはサイロ化されたデータへの依存:静的またはサイロ化されたデータソースが分析に利用されることが多く、スペース利用状況の変化をリアルタイムかつダイナミックに把握することができない 長期トレンドの追跡における柔軟性の欠如:ソリューションは通常、短期的な枠組でしかトレンドを捉えないため、経営者にとっては、パターンを正確に特定して事前対応で長期にわたった計画を立てることが困難 業界を横断しての適応性の限界:多くの分析システムでは、過度に一般化されたインサイトが提供されるため、ヘルスケア、教育、小売業といった業界独自のニーズに対応できない Juniper Mistの占有分析で掘り下げる JuniperのPremium Analyticsサブスクリプションの占有分析およびエンゲージメント分析で提供されるのは、単なる概要データではありません。BLE(Bluetooth® LE)が統合されたジュニパーの強力なWi-Fiアクセスポイントから得られたデータをもとに、ファシリティ内でのユーザーの行動に関する詳細なインサイトが提供されます。 先進技術を活用することで、ジュニパーは従来のソリューションのレベルを超える詳細な分析を提供し、お客様がスペースの利用状況を正確に把握して情報に基づいた意思決定ができるようサポートします。お客様が管理する大規模な企業オフィス、小売店舗、病院、大学キャンパスなど、ジュニパーのデータドリブンの分析により、スペース利用について情報に基づいた決定を下すのに必要な情報と統計が提供されます。これらの情報は次の概念に基づきます。 人流 滞在時間 ゾーン占有率 例えば、小売店の経営者は、買物客の人流の変化を1年を通して追跡し、それに応じて従業員の配置や在庫水準を調整できます。病院であれば、患者の流入出パターンを日ごとに把握し、待ち時間を最適化して患者のエクスペリエンスを向上させることができます。教育機関の場合は、学生が建物、図書館、教室を利用するパターンについてインサイトを得ることで、年間を通して、ピーク期間中のキャンパスと建物の管理を改善できます。 図1. 全訪問者およびロイアリティ訪問者の観測値(日/週/月ごと) 長期にわたる高人流ゾーンおよび滞在時間を把握する 利用者がファシリティ内のどこに最も長く滞在しているかを知ることは、建物のフロアプランとリソース配分について情報に基づいた決定を下すうえで不可欠です。ジュニパーのダッシュボードで、人流が多いゾーンを特定し、滞在時間、または利用者が特定のエリアにいた時間に関するデータを、最長13か月の期間にわたって確認できます。この機能が特に役立つケースとして、小売環境での商品配置の最適化、オフィス環境での照明、HVAC、アラームのプログラミング、病院やオフィスにおける混雑管理と利用者の流れの改善が挙げられます。 図2. ファシリティ内のさまざまなエリアの訪問者/デバイスの滞在時間 Mistの占有分析で得られるインサイトを利用して、組織の意思決定者はレイアウトを調整するか、ユーザーエクスペリエンスの向上を目的とする戦略を実行できます。例えば、サービスやスタッフの配置を最も必要とされるところに変更します。また、小売環境では、買物客が店内の特定のセクションに滞在する時間が長い、特定の場所から別の場所へ何度も移動している、などということがわかるかもしれません。そうであれば、そのスペースをより適切に活用できるようにデザインを見直すことができます。 図3. ファシリティの特定のエリアから別のエリアへ客がどのように移動しているかを表示(数日、数週、数か月単位) 時系列トレンド:パターンを見つけて業務を最適化する さまざまなダッシュボードで時系列の幅(時間/日/月)を変更できるため、行動の変化を時間経過に沿ってモニタリングできます。これらのトレンドからファシリティの利用状況の変化を明らかにすることができ、管理者はニーズを予測して問題になる前に対処できます。オペレーションとファシリティのチームは、暖房、照明、人員レベルを予測される占有率に応じて調節するなど、需要の変化に事前に対応できます。不動産管理チームも、長期にわたるスペースの利用状況を把握して、将来的にポートフォリオに関してより適切な決定を下すことができます。

Share
AIデータセンターネットワークのABC:構築するか購入するか、そのコスト(ブログ3回シリーズの最終回)

このブログシリーズの初回では、LLMのトレーニングにおける課題を取り上げました。前回は、AIに投資する企業のLLM消費モデルであるMaker(作成者)、Taker(使用者)、Shaper(形成者)、RAGを確認しました。今回は、AIアプリケーションの導入モデルと、各モデルのコストに関する検討事項について説明します。 AIの導入により、AIデータセンターが大きく成長し、投資が大幅に増加しています。以前はクラウドプロバイダがほぼ独占状態でしたが、現在は企業がプライベートデータセンターを利用して自社のAIデータセンターを拡張し、AIワークロードとアプリケーションの制御を自ら行うようになっています。 AIデータセンターへの投資を最大限に活用する IDCによると、AIデータセンターのスイッチング機器への企業投資が、2027年までに10億米ドルに増加し、年平均成長率が158%になると予測されています。クラウドプロバイダのスイッチングも同期間で年平均成長率91.5%と顕著な増加が続くと見込まれますが、一部の企業は、ハイブリッドクラウド戦略を採用するために、トレーニングや推論のワークロードの一部をプライベートデータセンターへ移す予定です。 生成AIで意味のある結果を引き出すには、モデルで自社データを使用しなければならないとほとんどの企業が気づいています。AIによるデジタル変革は、従業員に業務でパブリックLLMを使用するよう指令を出すように簡単にはいかないのです。 構築と購入:どちらを選ぶか? 自社のプライベートデータセンターを構築する。パブリッククラウドプロバイダからAIサービスを購入する。両方を組み合わせたハイブリッドクラウドモデルを使用する。どれを選択しても結局は大きな問題が立ちはだかります。 データの機密性:扱っている機密データや専有データローカルは、プライベートクラウドに保存する必要がある、もしくはデータの地理的境界を制限するデータ主権ルールの対象になっていませんか? テクノロジー業界や金融業界、政府機関、医療業界のユースケースでは、知的財産を保護するため、あるいは訴訟を避けるためにプライベートデータセンターが必要になる傾向があります。 専門知識:データサイエンスやネットワーキングに関する知識のある従業員はどの程度いますか? 適切な人材を確保している場合は、プライベートデータセンターの展開が強力な選択肢になります。しかし、そうでなければ、社内で専門知識を養うかアウトソーシングしなければなりません。 地理的要因:自社のデータセンターニーズをサポートできる十分なファシリティ(施設や設備)が、必要とされる場所にありますか? GPUあたり700W消費するため、大規模なトレーニングクラスターでは、既存のファシリティにコストのかかる電力のアップグレードが必要になることもあります。あるいは、電力を予算内に抑えるため、AIクラスターをさまざまな場所にあるデータセンターに分散することもできます。RAGなどの推論パフォーマンスにより、AIデータセンターがエッジの方へ移る可能性があります。そうなると、小さなAIクラスターが物理的にユーザーに近づきます。例えば、IoTアプリケーションが製造現場に展開されることになります。また、ハイブリットアーキテクチャでは、トレーニングや推論、RAGのためのAI機能を適切な場所に展開するために、データセンターを構築できる場所では構築し、構築できないが必要な場所では購入することができます。 市場投入期間:市場投入に対する圧力はありますか? 即時の投入を求められているなら、パブリッククラウドサービスです。市場投入期間が短縮され、プライベートデータセンターの導入を計画したりする貴重な時間を確保できます。AIによる変革はどこまで進んでいますか? まだ着手したばかりで、自社での効果を知るために実験を繰り返す必要がある状態ですか? その場合も、パブリッククラウドがお勧めです。しかし、AIに熱心に取り組んでいて、ビジネスのさまざまな分野での使い方を計画している場合は、経済分析によると、一般にプライベートクラウドインフラストラクチャへの投資が推奨されます。 企業戦略:多くのクラウド変革プロジェクトがそうであるように、AIへの取り組みも部門レベルで始まることが多く、特定の顧客や運用上の課題の解決を目的に、独立したAIクラスターがさまざまな場所で作り出されています。企業が、AIインフラストラクチャの統合や共有を進める包括的な企業戦略を立てれば、AIの投資コストの償却効率も上がり、プライベートデータセンターのAI投資を既存の企業予算内に収めることができます。 当初、パブリッククラウドはAIテクノロジーのイノベーターや早期導入者にとって唯一の選択肢でした。依然として大半のAI戦略でパブリッククラウドが重要ではありますが、データのセキュリティやコストに対する懸念から、プライベートデータセンターやハイブリッドクラウドアーキテクチャが主流になりつつあります。ジュニパーのオンラインイベント「Seize the AI Moment(AIでチャンスをつかむ)」では、お客様、パートナー、業界の専門家が独自のハイブリッドクラウドのユースケースや戦略について議論しています。その中では、金融機関のデータセキュリティ問題や、コストとパートナーのバランスを取るためのハイブリッドクラウドを使用した戦略などが話題になりました。 コスト:費用のかかるAIの世界でROIを最大化 どの導入モデルでも、AIの展開に費用がかかることに変わりはありません。AIのコストは、予算、専門知識、時間の観点から計算されますが、いずれの要素もリソースに限りがあります。専門知識と時間のコストは企業によって異なりますが、AIへのハードダラー投資は市場主導で変化し、割り当てられた予算のみが障壁になります。 GPUサーバー1台あたりのコストは、およそ40万ドル。そのため、小規模AIデータセンターのインフラストラクチャコストだけでも数百万ドルになる可能性があります。しかし、希望の光も見えてきました。PyTorch 2.0のようなAIフレームワークが、NVIDIA製チップセットとの緊密な統合や依存を解消したのです。これにより、IntelやAMDなどの競合GPU製品にも扉が開かれ、市場力学が崩壊し、コストの正常化に向かっています。 現状レベルでは、パブリッククラウドプロバイダからAIサービスを購入したほうが、プライベートAIデータセンターを構築するよりコスト効率に優れていると容易に予測できます。一方、ACG Researchの最新の総所有コスト(TCO)分析からは異なる結果が出ています。プライベートAIデータセンターとパブリッククラウドでホストされる同等のAIサービスの3年間のTCOを比較したところ、プライベートデータセンターモデルの方がTCOを46%節約できることがわかりました。この主な原因は、パブリッククラウドサービスに関連する高額な定期コストです。 ACGのレポートでは、AIデータセンターの構築コストについても、InfiniBandとイーサネットのネットワーキングコストを比較して詳しく分析しています。その結果、ジュニパーのイーサネット(RoCE v2)とJuniper

Share
AIデータセンターネットワークのABC:アプリケーション(ブログ3回シリーズの第二弾)

このブログシリーズの初回のブログでは、基盤となる大規模言語モデル(LLM)の開発の複雑さと、開発に必要な膨大なリソースについて取り上げ、多くの企業にとってこの開発が手の届かないものであることを説明しました。今回は、すべての企業がこれらの基盤となるLLMを、自社のプライベートデータセンターで活用できる選択肢を紹介します。 128のGPUを備えた小規模なAIデータセンターであっても、導入には数百万ドルのコストがかかるため、効率性に投資することがコスト抑制の鍵となります。この投資アプローチは、ジュニパーが提唱するAIデータセンターのABC、つまり、アプリケーション(Application)、構築(Build)または購入(Buy)、コスト(Cost)に基づいています。このブログでは、特にアプリケーションのニーズが企業のAI投資におけるAI消費モデルにどのように影響するかについて見ていきます。 アプリケーションの複雑さ AIへの投資を計画する際には、まずAIアプリケーションから期待される目標、目的、成果を理解することが重要です。貴社のユースケースは、カスタマーエクスペリエンスを向上させるためのAIを活用したサポートアシスタント、文書解析ツール、または技術文書アシスタントなど、より汎用的なものでしょうか? それとも、業界や企業特有の、よりカスタマイズされ差別化されたAIアプリケーションでしょうか? カスタマイズのレベルが高くなるほど、すでに複雑な開発プロセスがさらに複雑になり、それが基盤となるLLMやアプリケーションの消費モデルに影響を与えます。 McKinsey Consultingは、AIアプリケーションを導入するための3つのアプローチを、Maker(作成者)、Taker(使用者)、Shaper(形成者)と定義しています。 作成者は業界の大手プレイヤー 作成者は、インターネットデータを元に独自の基盤となるLLMを開発するための財政的手段と専門知識を持つ、世界でごくわずかな企業です。これらの企業には、Google(Gemma、Gemini)、Meta(Llama)、OpenAI(GPT)、Anthropic(Claude)、Mistral(Large、Nemo)、Amazon(Titan)などがあります。LLMの開発が主要な業務ではないほとんどの企業は、使用者または形成者の道を選ぶことになります。 使用者は既存のAIアプリケーションをそのまま活用 汎用的なカスタマーチャットボットや、自然言語処理(NLP)を既存のデータベースに接続するなど、あまり複雑でないサービスを導入する企業は、既製のLLMをカスタマイズする必要はありません。企業は、ライセンス版でもオープンソース版でも、事前にトレーニングされたLLMに基づいた既存のAIアプリケーションを「使用」し、そのモデルを推論のために導入できます。 今日、これらのアプリケーションはほとんどの企業にとって必須の要素となっています。つまり、競争上の差別化はほとんどないかもしれませんが、複雑さが減少することで導入が効率化され、アプリケーションが期待される成果を達成すれば、不要な支出を削減できます。Hugging Faceからは、AIライブラリのリポジトリを通じて、企業は40万以上の事前にトレーニングされたLLM、15万以上のAIアプリケーション、10万以上のデータセットにアクセスできるため、AIを迅速かつ効率的に導入するための多くの選択肢があります。 形成者はLLMを独自のものにする企業 競争上の差別化やカスタマイズされたワークフローアプリケーションを必要とする企業にとって、既製のLLMやアプリケーションでは十分でない場合があります。形成者は、事前にトレーニングされたLLMを使用し、そのモデルを自社独自のデータセットを使用して微調整することで「形成」します。その結果、どんなプロンプトにも非常に具体的で正確な回答を提供するLLMが完成します。このモデルから恩恵を受けるアプリケーションには、以下が含まれますが、これらだけに限りません。 特定の業務機能に合わせてLLMを調整し、業務を効率化し、単調さを軽減するワークフローの自動化 内部ポリシー文書、規制ルール、または法的改正を比較して、特別な考慮が必要な違いを特定するためのAIサポート 特定のオペレーティングシステム、CLI、および文書に基づいてトレーニングされたCopilotによる、コード開発や文書検索の簡素化 RAG推論を活用 このシリーズの最初のブログで説明したように、推論システムはトレーニングされたAIアプリケーションをエンドユーザーやデバイスに提供します。モデルのサイズによって、推論は単一のGPUやサーバーに導入することも、複数のサーバーにアプリケーションを分散させてスケールとパフォーマンスを向上させるマルチノード導入として実施することもできます。 比較的新しい技術である「リトリーバルオーグメンテッドジェネレーション(RAG)」は、企業がAIモデルの開発や導入をカスタマイズするための興味深い手法を提供します。RAGは、外部のデータソースから取得した補足データを用いて、事前にトレーニングされたLLMを強化します。RAGを使用すると、ユーザーのクエリからベクトル埋め込みが取得されます。そのベクトル埋め込みに最も近い一致が、外部データソースに対するデータのクエリに使用されます。取得された最も関連性の高いテキストやデータの断片は、元のプロンプトと共にLLMに渡され、推論が行われます。元のプロンプトに関連するローカルデータを提供することで、LLMはその追加データと自らの知識を組み合わせて回答を生成できます。LLMを再度トレーニングすることなく、RAGは顧客やデバイスからのクエリに対して具体的かつ正確な回答を提供します。 RAGは、使用者モデルと形成者モデルの間に位置し、企業が市販のLLMを微調整せずに活用できる手段を提供します。しかし、元のプロンプトクエリと共に追加のデータソース(多くの場合、ベクトルデータベース)にアクセスする必要があるため、フロントエンド、外部データソース、LLM間のネットワーク接続には、高いパフォーマンスと非常に低いエンドツーエンドの遅延が求められます。 LLMの消費モデルが定義された後、企業はトレーニングと推論モデルのための導入モデルを選択する必要があります。次のブログでは、「構築」と「購入」の選択についてと、それぞれに関連するコストについて検討します。

Share
AIデータセンターネットワークのABC:はじめに(ブログ3回シリーズの第一弾)

AIモデルのトレーニングは特別な課題です。Llama 3.1やGPT 4.0など、基盤となる大規模言語モデル(LLM)の開発には、世界中でもごくわずかな大企業だけが実現できるような莫大な予算とリソースが必要です。これらのLLMは、数十億から数兆個のパラメーターを持ち、合理的なジョブ完了時間内でトレーニングを行うためには、複雑なデータセンターファブリックの調整が必要です。例えば、GPT 4.0は1.76兆個のパラメーターを使用しています。 これらの数字を具体的にイメージするため、各パラメーターを1枚のトランプのカードに置き換えて考えてみましょう。52枚のトランプのデッキは約0.75インチ(約1.9cm)の厚さです。100万枚のカードを積み重ねるとエンパイアステートビルディングよりも高くなり、10億枚のカードを積み重ねると228マイル(約367キロメートル)の高さで地球の熱圏までに達し、1兆枚のカードを積み重ねると約227,000マイル(約365,000キロメートル)で、月までの距離に相当します。 AI投資を最大限に活用 多くの企業にとって、AIへの投資は新しいアプローチが必要です。それは、これらの基盤となるLLMを自社のデータで改良し、特定のビジネス上の課題を解決、そしてより深い顧客との関わりを提供することです。しかし、AIの導入が広がる中で、企業はデータプライバシーの強化やサービスの差別化を目的とした新たなAI投資の最適化方法を求めています。 ほとんどの企業にとって、これはオンプレミスのAIワークロードの一部を、プライベートデータセンターに移行することを意味します。「パブリッククラウド対プライベートクラウド」のデータセンター論争は、AIデータセンターにも当てはまります。多くの企業は、AIインフラを構築するという新しい課題に圧倒されています。確かに課題ではありますが、乗り越えられないものではありません。既存のデータセンターの知識を使用できます。少しのサポートがあれば大丈夫です。ジュニパーがそのガイド役を務めます。 このブログシリーズでは、AIへの投資を検討する企業にとってのさまざまな考慮事項と、ジュニパーが提唱するAIデータセンターのABCに基づくさまざまなアプローチについて紹介します。ABCとはつまり、アプリケーション(Application)、構築(Build)または購入(Buy)、コスト(Cost)を意味します。 まず初めに、なぜAIインフラがこれほどまでに特化される必要があるのかを見ていきましょう。 LLMおよびニューラルネットワークの理解 インフラの選択肢をよりよく理解するためには、AIアーキテクチャの基本と、AIの開発、提供、トレーニング、推論における基本的なカテゴリについて理解すると役立ちます。 推論サーバーは、インターネットに接続されたフロントエンドのデータセンターでホストされており、ユーザーやデバイスが完全にトレーニングされたAIアプリケーション(Llama 3など)にクエリを送信できるようになっています。TCPを使用すると、推論クエリやトラフィックのパターンは他のクラウドホスト型ワークロードと同様になります。リアルタイムで行われる推論では、一般的な中央処理装置(CPU)や、トレーニング時に使用されるのと同じグラフィック処理装置 (GPU)を用いることで、最速の応答と最低の遅延を提供します。これは通常、初回トークンの応答時間や、インクリメンタルトークンの時間といった指標で測定されます。要するに、これはLLMがクエリにどれだけ速く応答できるかを示しており、大きなスケールでは、一貫したパフォーマンスを維持するために大規模な投資と専門知識が必要になる場合があります。 一方で、トレーニングには特有の処理上の課題があり、特別なデータセンターのアーキテクチャが必要となります。トレーニングは、LLMやトレーニングデータセットが「無秩序な」インターネットから隔離された、バックエンドのデータセンターで行われます。これらのデータセンターは、400Gbpsや800Gbpsのネットワーキング接続を使用する、専用のレール最適化ファブリックを備えた高容量で高性能のGPUコンピューティングおよびストレージプラットフォームを使用して設計されています。大規模な「エレファント」フロー(大量データ転送)や広範囲なGPU間通信が発生するため、これらのネットワークは、数か月に及ぶ継続的なトレーニングサイクルに対応できるよう、容量、トラフィックパターン、トラフィック管理のニーズに合わせて最適化される必要があります。 トレーニングの完了までにかかる時間は、LLMの複雑さ、LLMをトレーニングするニューラルネットワーク内の層、精度向上のために調整すべきパラメーター、そしてデータセンターのインフラストラクチャの設計によって異なります。しかしニューラルネットワークとは何でしょう? そしてLLMの結果を改善するパラメーターとは何でしょう? ニューラルネットワークの基本 ニューラルネットワークとは、人間の脳の計算モデルを模倣するように設計されたコンピューティングアーキテクチャです。ニューラルネットワークは、データを取り込む入力層、結果を出力する出力層、そして入力された生データを有用な情報に変換する中間の隠れた層から成る、段階的な機能層で実装されています。ある層の出力が次の層の入力となり、クエリが体系的に分解、分析、処理されることで、各層のニューラルノード(または数学的関数)を通じて結果が生成されます。 例えば、下の画像は、最初の4つの偶数を示す手書きの数字を認識するために、LLMがニューラルネットワーク上で訓練される様子を示しています。このニューラルネットワークには2つの隠れた層があり、1つは形状を処理し、もう1つはパターンを認識します。手書きの数字のデータセットは小さなブロックに分割され、モデルに入力されます。最初の層では曲線や線が処理され、その後データは2番目の層に送られて、分析されている数字を示す可能性のあるデータ内のパターンが識別されます。 最適なLLM精度のためのパラメーター調整 各層内のニューラルノードは、ニューラルネットワーク接続のメッシュを持っており、これによりAI科学者は各接続に重みを適用できます。各重みは数値であり、特定の接続への関連性の強さを示します。例えば、データの上部四分割の1つにある曲線は「2」や「8」に対して重みが高い一方で、同じ四分割にある直線は「2」や「8」に対して重みが低いことになります。パターンを見る際に、縦の直線だけの組み合わせは「4」に対してつながりが強く重みは高いですが、直線と曲線が組み合わさると、「2」や「6」、「8」に対してよりつながりが強く重みは高くなります。 トレーニングの開始時には、モデルの結果は非常に不正確です。しかし、トレーニングを重ねることで、これらのニューラルのつながりの重みが調整または「チューニング」され、精度を段階的に向上させることができます。強いつながりと弱いつながりをさらに区別するために、各つながりには数値的なバイアスが適用され、強いつながりを強調し、弱いつながりを調整します。重みとバイアスはともに、LLMの精度を向上させるために調整する必要があるパラメーターを表します。 この簡単な例では、モデルが各数字を高い精度で識別できるようになるまでに、242個のパラメーターを繰り返し調整する必要があります。数十億または数兆個のパラメーターを扱う場合、このプロセスを自動化するため、逆伝播アルゴリズムが使用されます。それでもトレーニングは非常に長いプロセスであり、データセンターの基盤となる物理ネットワークで発生する処理によって遅延したり中断されることがあります。「テールレイテンシ」と呼ばれるこの遅延は、データセンターネットワークが適切に設計されていないと、トレーニングプロセスの時間とコストを大幅に増加させる可能性があります。 次のブログでは、企業がこれらの基盤となるLLMを活用して、自社のカスタムAIアプリケーションを導入し、プライベートデータセンターから提供する方法について説明します。 他の企業がこれらの課題に取り組むために、どのようにインフラストラクチャを構築しているか、ご興味はありますか? ぜひジュニパーのバーチャルイベント、「Seize the AI

Share
Marvis Clientでデバイスからクラウドまで可視化、Wi-Fiエクスペリエンスを最適化

今日の企業では、Wi-Fiのパフォーマンスとビジネスのパフォーマンスは密接に結び付いています。 接続が不安定になると生産性が低下するだけでなく、シームレスなWi-Fiエクスペリエンスの確保のためITネットワーク管理者の負担も増すことになります。ネットワークに接続するデバイスがかつてないほど増えている昨今、ネットワークパフォーマンスを明確に可視化して実用的なインサイトを得ることが、急激にビジネスクリティカルなニーズとなっています。 これまで、ネットワークパフォーマンスに関するインサイトは一方的なもので、AP(アクセスポイント)の側から限定的にネットワークを把握できるのみでした。APに接続されたクライアントの側から見た詳細なインサイトは、これまで提供されてきませんでした。Marvis® Clientの導入により、ジュニパーは、ユーザーのデバイスから直接ユーザーのWi-Fiエクスペリエンスを確認できるという、これまでにない可視性を提供できるようになりました。 Marvis Clientはネットワークの管理とトラブルシューティングを強化し、IT運用チームがネットワークパフォーマンスを事前対応で最適化します。このブログでは、必要なクライアント側のデータとツールをどのように利用できるのかを紹介いたします。Marvis ClientがMarvis VNA(仮想ネットワークアシスタント)とともに、どのようにして優れたユーザーエクスペリエンスを裏付ける詳細な可視化と迅速なトラブルシューティングを実現するのかを説明します。 クライアント側からのWi-Fiの把握 クライアントがネットワークをどのように認識しているかを把握することは、Wi-Fiネットワークにおいて常に大きな課題となってきました。接続の切断、データレートの低下、ローミングの問題などエンドユーザーから頻繁に問題が報告されますが、影響を受けたデバイスから得るインサイトが欠けているため、根本的原因を切り分けて診断することは困難でした。 Marvis Clientは、エンドユーザーのデバイス側からのWi-Fiエクスペリエンスを詳細に可視化することで、この問題を解決します。Android、Windows、macOS搭載のデバイスにMarvis Clientをインストールすると、IT管理者はデバイスのタイプ、オペレーティングシステム、無線ハードウェア、ファームウェア、接続情報などの豊富な情報を確認できます。Marvis ClientからJuniper Mist® Cloudに情報が渡され、Marvisがその情報を分析することで、実用的なインサイトが得られます。 例えば、デバイスに接続の問題が発生した場合、Marvis Clientは、問題が特定のドライバーバージョンによるものか、信号干渉によるものか、または無線ファームウェア構成が規格外であることによるものかを識別できます(図1参照)。このような詳細なインサイトにより、ネットワーク管理者はより迅速に問題を特定して解決できるようになり、MTTR(平均問題解決時間)の短縮につながります。 図1. Mistのダッシュボードに表示されたMarvis Client Marvis VNAとの連携 Marvis Clientは、単独では機能しません。ジュニパーの画期的なAIネイティブアシスタントであるMarvis VNAと連携することでネットワークデータを分析し、問題を特定することでリアルタイムに解決策を提案します。AIネイティブ機能を介してMarvis VNAはネットワークデバイスとクライアントデバイスの両方から継続的にデータを取得し、ネットワーク環境の全体図を構築します。 Marvis ClientとMarvis VNAが連携することで、ジュニパーのAIネイティブネットワークのサポートモデルにおける重要な部分が完成します。これにより、IT運用チームはAPから接続クライアントに至るネットワークの全体像を把握し、高い精度で問題を診断して解決できるようになります。カバレッジのギャップの特定、クライアントによるAP間のローミングの方法の把握、デバイスの接続状況の視覚化など、Marvis

Share
WAN2xプログラムで2倍のコスト削減と2倍の製品寿命を実現

急速に進化する今日のデジタル環境では、ネットワークインフラストラクチャの重要性がかつてないほど増しています。ニーズの増大に対応するためには、拡張性、簡素化、俊敏性が必要です。レガシーWANインフラストラクチャを刷新する際には、さまざまな課題や複雑な事態に直面することをジュニパーネットワークスは理解しています。WAN2xインセンティブプログラムの提供を開始したのも、そうした理由からです。 WAN2xでは、2倍のコスト削減と2倍の製品寿命を実現します。比類のないインセンティブでネットワークをアップグレードでき、パフォーマンスや持続可能性に優れ、簡素化と自動化を実現するジュニパーのAIネイティブソリューションを利用できます。 WAN2xの革新的な機能を活用 WAN2xインセンティブプログラムにより、ネットワークを刷新することで多くのメリットを獲得できるようになります。旧式のシステムからの移行を必要としている組織も、運用の簡素化を求めている組織も、WAN2xにより適切なツールとリソースを獲得でき、それによってコスト削減を実現できます。 ジュニパーのサポートにより、ネットワークを変革してビジネスに成功をもたらすことができたお客様の事例をいくつか紹介します。 お客様の導入事例 Golden West Telecommunications:柔軟性を最新化 Golden Westは、1916年創設の会員制協同組合で、サウスダコタ州の農村部向けに通信サービスを提供しています。シャーシベースのレガシーシステムを使用していた同組合はさまざまな課題に直面しており、最新の拡張性、効率的なライセンス、今後の成長に対応できる柔軟性を備えたソリューションを必要としていました。Golden Westが求める以下の条件をすべて満たしていたのが、ジュニパーのACX7000シリーズでした。 コストが最適化された、拡張可能な汎用シリコン 業界標準に沿った、簡素化されたライセンスモデル 導入とメンテナンスを容易に行うためのJuniper® Paragon Automation 上記の機能とWAN2xキャンペーンの組み合わせにより、低コストで容易に移行を実現できました。ジュニパーの導入を即決したGolden Westは、将来に備えた俊敏なAIネイティブネットワークを活用できるようになりました。 政府機関:現状維持から業務変革へ 政府機関にとって、安定性、セキュリティ、イノベーションは非常に重要です。ある大規模政府機関は、複数の候補を検討した結果、自動化機能とセキュリティ機能において業界のリーダー的な製品であるジュニパーのMX304ルーターを採用しました。採用の大きな決め手となったのは、WAN2xキャンペーンにおいて以下が提供されることでした。 ジュニパーの専任エキスパートが移行をサポート 新プラットフォームに関する包括的なトレーニング 堅牢な自動化機能とセキュリティ機能に裏打ちされた円滑な移行の保証 WAN2xインセンティブを活用して、同機関は安全なネットワークインフラストラクチャを変革しました。これにより、拡張性と安定性がここ数年間は保証されることになりました。 ジュニパーのWAN2xインセンティブプログラムが選ばれる理由 WAN2xプログラムのメリットは、コストを削減できることだけではありません。以下のようなメリットもあります。 変革を進めるのが容易 機能パリティ評価 既存のインフラストラクチャにシームレスに統合

Share
チャネルパートナーが管理するエンタープライズディスカウントプログラムの価値

最初に明確にすると、エンタープライズディスカウントプログラム(EDP)とは、主要なパブリッククラウドプロバイダのサービスを割引料金で提供して、企業のお客様のコストを削減できるようにするプログラムです。ジュニパーはAWS、Google、Microsoftの3社とパブリッククラウドパートナーシップを締結しています。これにより、企業は、柔軟で費用対効果が高く、拡張性のあるシステムを構築できます。たとえば、AWSとのパートナーシップでは、数量割引、リザーブドインスタンス割引、カスタム価格設定契約など、さまざまなエンタープライズディスカウントプログラムが提供されています。 EDP契約を結んだ場合、お客様は実際の利用量にかかわらず、一定の期間(通常は1~5年間)にわたって最低限の特定料金を支払うことになります。EDPは、クラウドインフラストラクチャを今後も積極的に使用する予定の企業や、リソースのクラウドへの移行を今後さらに進める予定の企業に最適です。 EDPの割引、サービス、拡張性を活用 前述のとおり、EDPを利用すると、特に利用量が多いお客様は、クラウドサービスを大幅な割引料金で利用できるようになります。また、EDPの価格構成も、お客様があらかじめ定めた支出額に合わせて、予測がしやすいものとなっています。AWSの場合、すべてのサービスが単一の契約にまとめられているため、調達のプロセスを効率化できます。また、お客様を速やかにサポートする専用のAWSサポートプランも含まれています。 チャネルパートナーが管理するEDPのメリット EDPの継続的な管理をチャネルパートナーに任せるということは、EDPに関連する重要な業務をパートナーが代わりに行うということです。これには、次のようないくつかのメリットがあります。 戦略的コラボレーション:チャネルパートナーはお客様のチームの一部となり、チームと緊密に連携してEDPを最適化します。これには、契約更新、コンプライアンス、サポートなどの業務も含まれ、これにより、お客様の社内リソースは他の重要な業務に専念できます。 日々の運用:利用状況の監視、支出額の追跡、EDPの条件の遵守など、日常的なタスクをパートナーが行います。チャネルパートナーは、お客様とパブリッククラウドプロバイダの間の調整役となり、コミュニケーションを効率化して問題を解決します。  コストの最適化:チャネルパートナーは、積極的に利用状況を監視し、非効率な部分を特定して、コストを最適化するための方法を提案します。これにより、お客様はEDPのメリットを最大限活用できます。 事前対応のサポート:チャネルパートナーは事前対応でサポートを提供して、あらゆる問題への速やかな対応、リソース拡張の支援、設定の調整、ワークロードの最適化などを行います。この専門的なサポートにより、円滑な運用が実現し、中断を最小限に抑制できます。  戦略的な計画策定:チャネルパートナーは、日々のタスクだけでなく、長期的なクラウド戦略の策定にも協力します。お客様のビジネス目標、成長計画、テクノロジーロードマップに沿ったEDPを提供します。  市場インサイト:チャネルパートナーは、市場の知識、トレンド、競争優位性につながるインテリジェンスを提供します。これにより、お客様は最新の情報を得ることができ、これに基づいてEDP戦略を適用できます。 関係の構築:効果的なEDP管理により強力なパートナーシップが育成され、信頼、透明性、相互理解が構築されて、全体的な関係性が強化されます。 最後に、チャネルパートナーが管理するEDPでは、お客様はEDPのメリットを最大限活用しながら、クラウドへの移行を進めることができます。 ジュニパーでクラウドのコストを最適化 ジュニパーは、クラウド市場に参加するネットワークプロバイダの中でも独自の地位を築いています。従来のネットワーキングインフラストラクチャ(ファイアウォール、ルーター、Wi-Fiアクセスポイントなど)でもSaaS機能を提供するようになったため、マーケットプレイスのプライベートオファーを通じてジュニパーのSaaS機能を購入すると、その購入金額はお客様が定めた支出額に加算されます。 ジュニパーのパートナーにとっては、お客様のテクノロジーに関するニーズと市場で利用できる経費とのバランスを取ることができるため、大きな付加価値となります。結果として、クラウドの予算を最大限活用するのに合わせてテクノロジーを戦略的に強化するという、他にない機会を得られます。 AWS、Google、Microsoft Azureのマーケットプレイスから購入するには、こちらのマーケットプライスのプライベートオファーを開始(英語)にアクセスしてください。

Share
Juniper Apstra ServiceNow PowerPackによるITチケット管理の効率化

エンタープライズITの基盤としてのデータセンターネットワークの重要性はますます高まっています。しかし、ネットワーキングチームは、依然としてIT部門の他の部署から離れたところで、サイロ化された状態のまま運用しがちです。ネットワーク管理者は多くの場合、エンドユーザーのニーズと、ITやアプリケーションの環境、ネットワーク管理の現状の間で板挟みになります。 ジュニパーネットワークスは、急速に進化するデータセンター市場でお客様のニーズを先取りしてお応えするため、この分野で大きなイノベーションを推進し続けています。先月、ジュニパーは、データセンター向けのクラウドベースの新たなAIネイティブアプリケーションスイートであるJuniper Apstraクラウドサービス、およびJuniper Apstraの最新版であるバージョン5.0をリリースしました。 本日ジュニパーが発表するのは、Juniper Apstra ServiceNow PowerPackです。これは、世界トップクラスのエンタープライズIT管理プラットフォームであるServiceNow®とより緊密に連携することで、ネットワークの管理と運用をさらに簡素化する製品です。この新機能は、企業のネットワークインシデントの管理方法を変革します。ネットワーキングチームが他の部署とより効率的に連携して作業することが可能になります。また、Juniper Apstraライセンスをお持ちであれば無償で利用でき、GitHubから容易にインストールできます。 IT部門において何らかの作業を完了するのにかかる時間は、実際の作業よりも、別のチームが作業を終えるのを待つ時間のほうが長くなりがちです。そこで、プロセスの自動化が有効になります。まず時間の節約になります。また、ネットワークエンジニアの手間や苦労が軽減されます。しかし、本当のメリットは、自動化によって実現するのが、ちょっとした業務効率の改善程度ではなく、異なる複数の部署が連携できるようになることであり、それによって企業が何日も何週間も業務を停止せずに済むようになることです。 ネットワーキングチームと大規模なIT部門をつなぐ Juniper Apstraのアノマリー機能やプローブ機能はネットワークの問題の特定に非常に長けていますが、これまではネットワーク運用チームにしかそれが見えていませんでした。こうした隔たりが非効率につながり、ネットワークの専門家が貴重な時間を費やして手作業での記帳やデータの関連付けを行うため、重要なネットワーク管理タスクや戦略的なプロジェクトに集中できなくなっていました。これからは、運用担当者はやらなければならないことではなく、やりたいことをできるようになります。 お客様の環境、システム、ビジネスロジック要件はさまざまで、それが大きなハードルとなっています。企業ごとに独自のニーズがあるため、組織のコミュニケーションの問題に汎用的なソリューションで対応するのは非現実的であり、効果もあまり見込めません。 ジュニパーはこのような課題に対処するため、Apstraの高度なモニタリング機能をServiceNowと統合する革新的なApstra PowerPackを開発しました。ServiceNowは、企業がエンタープライズとエコシステム全体にわたる作業を自動化、最適化、モダナイゼーションするうえで役立つ、人気の高いITサービス管理プラットフォームです。企業はServiceNowや同様の堅牢なチケット発行システムを使用して、ITライフサイクル全体を通じて障害対応チケット、ワークフロー、アクション、問題を追跡します。このPowerPackソリューションはJuniper Apstraの包括的なREST APIを活用して、ネットワークの異常とServiceNowによる組織的プロセスの間に、カスタマイズ可能な自動ブリッジを構築します。 Juniper Apstra ServiceNow PowerPackはApstraと同期しながら、チケット発行システムのアップデートをほぼリアルタイムでモニタリングします。Juniper Apstraが異常を検知すると、ServiceNowで自動的にインシデントチケットがオープンになり、関連情報が入力されます。そして、Juniper Apstraで問題への対応が行われると、チケットは解決となります。 企業全体でのデータセンターのインシデントに対する可視性と制御性の強化 ネットワークの問題に対応するために障害対応チケットを作成したりそれを更新するのは、面倒な手作業です。運用担当者は、関連するチームとシームレスに連携できるような、プロセスを自動化する方法を求めています。Juniper Apstraの異常検知機能をServiceNowにつなげることこそが求められている方法であり、これによってネットワークの運用が効率化され、インシデント管理が自動化されて効率が上がります。 PowerPackでは、中央制御ポイントとしてJuniper Apstraが使用されます。プロパティセットの値を使用して、追跡する必要があるネットワーク設計図を示したり、自動化を一時停止できます。また、PowerPackのロジックではプロパティセットを使用して、作成されたチケットや対応中のチケットの記録を保持できます。 Juniper

Share
過酷な環境に対応する究極のイーサネットスイッチの紹介

Juniper EX4100-Hの紹介:屋外や過酷な環境に対応するジュニパーのクラウドネイティブかつAIネイティブのスイッチ あらゆる業界でネットワークの最新化が求められるなか、将来も見据えて長く使い続けられる耐久性のあるスイッチングがこれまで以上に重要になっています。ジュニパーネットワークスの耐久性に優れたEX4100-Hスイッチは、AIネイティブでかつクラウドネイティブ、ファンレスで安全なソリューションであり、あらゆる環境で動作するように設計されており、過酷な環境でも優れた性能を発揮することが実証されています。「過酷な環境」とは文字どおりで、EX4100-Hはどのような環境でも利用可能です。 このスイッチは、EV充電ステーション、工業オートメーション、リモートモニタリング、輸送システムなど、灼熱の暑さや凍えるような寒さの中でも、屋内外を問わず揺るぎないパフォーマンスが求められる企業や導入環境向けに設計されています。南極大陸の遠隔調査基地でも、問題ありません。 EX4100-H:過酷な環境に耐える設計 動作時温度範囲は-40°Cから+75°Cで、激しい物理的衝撃や振動にも耐えられるように設計されたEX4100-Hは、パフォーマンスや環境破壊のリスクにけっして妥協できない状況において、頼りになるソリューションです。悪天候下であっても、きわめて要求の厳しい産業や小売業で利用される場合にも、EX4100-Hは一貫性のある高水準のネットワークサービスを確実に提供します。 優れた機能とメリット Mist AIの統合によるAIネイティブとクラウドネイティブ:Juniper Mist Wired Assuranceにより、卓越したAIネイティブかつクラウドネイティブの管理をEX4100-Hと組み合わせることで、優れた拡張性と俊敏性を兼ね備えた運用の効率化と妥協のないパフォーマンスが実現します。 自動化とゼロタッチプロビジョニング:ZTPにより、セットアップにかかる時間と労力が大幅に軽減されます。テンプレートを利用することで、一貫性のある大規模な導入と実績のあるパフォーマンスを確実に実現でき、エラーを最小限に抑えた完璧な導入ができます。 AIOps:ジュニパーのAIネイティブ仮想ネットワークアシスタントであるMarvis™ VNAにより、潜在的な問題に対して先手を打つことできます。運用やユーザーエクスペリエンスに影響が及ぶ前に、問題を事前対応で検知して解決します。手動による操作を最小限に抑えることで、最適なネットワークパフォーマンスを確保し、ネットワーキング関連の障害対応チケットを最大90%削減します。 SLE(サービスレベル期待値):ジュニパーのWired Assuranceを活用すると、ネットワークパフォーマンスに関する詳細なインサイトをリアルタイムで入手できます。接続前後のSLEにより、スループット、接続成功数、スイッチの正常性、スイッチの帯域幅に関するインサイトを得られます。 ファンレス設計:無音の動作と機械的な故障リスクの低減により、ファンレスのEX4100-Hは、信頼性とパフォーマンスを象徴する製品となっています。 安全性:MACsec AES256暗号化やマイクロセグメンテーションなどの堅牢なセキュリティ機能と組み合わせることで、EX4100-Hは脅威の種類に関わらず、ネットワークの安全性を維持します。 認定:EX4100-Hは、耐久性と強靭性を証明する包括的な認定を取得しており、安心できます。IP30等級も取得しており、ほこりや固形物から保護されることが保証されています。また、衝撃、振動、湿度に関する認定も取得しており、物理的な衝撃、動作、湿気に耐える能力があることが実証されています。 汎用性のある電源オプション:ACおよびDC入力の両方をサポートするデュアル冗長電源オプションにより、EX4100-Hは、稼働時間の最大化と俊敏性を実現します。ホットスワップ対応のフィールド交換可能な外部電源と、ポート当たり最大90ワットを供給するIEEE 802.3bt PoE++により、きわめて過酷で予測不可能な環境における需要の高いデバイスへの電源供給に最適です。 高度なネットワーキング機能:レイヤー2およびレイヤー3の機能一式を装備したEX4100-Hは、キャンパスや支社/拠点の環境など、さまざまな導入シナリオに幅広く対応します。アクセスレイヤーのEVPN-VXLANが高度なネットワーク仮想化を提供し、フローベースのテレメトリが最適化された透過性の高いネットワークパフォーマンスを確保します。 バーチャルシャーシテクノロジー:ジュニパーのバーチャルシャーシテクノロジーにより、拡張要件の増大に合わせて最大10台のEX4100-Hスイッチを単一のデバイスとして稼働できるため、拡張してビジネスをサポートすることが可能な、拡張性の高い成長に応じた従量制(Pay as you grow)ソリューションとして利用できます。  

Share
ジュニパーの次世代クラウドネイティブ高電力スイッチング:Wi-Fi 7、スマートビルディング、および持続可能な未来の強化

AIの登場とWi-Fi 7の導入により、ITネットワーク技術は急速に進化しています。これにより、ネットワークの運用と拡張が飛躍的に容易になり、エンドユーザーに革新的なエクスペリエンスを提供できるようになります。IT運用チームにとって、この進化は素晴らしいチャンスをもたらしますが、新たに考慮しなければならないことや課題も生じます。主な課題としては、Wi-Fi 7エンドポイント(AP47)で求められる電力要件の増加や、持続可能性の目標の達成、またネットワーキングのOpExを同時に改善することが挙げられます。そして、そのすべての中心にあるのが、有線ネットワークのアクセススイッチング技術です。 ジュニパーはこうしたニーズを念頭に置いて、新たなクラウドネイティブの高電力スイッチ、EX4400-48MXPおよびEX4400-48XPを設計しました。無線の分野でWi-Fi 7への移行に対する備えが行われている一方で、これらのスイッチは最新のエンタープライズネットワークで求められる電力と接続性のニーズに対応する独自の性能を備えています。また、これらのスイッチはAIネイティブであり、ネットワーク運用の効率化を促進します。 高密度の無線環境やスマートビルディングに導入した場合でも、あるいはミッションクリティカルなエンタープライズアプリケーションをサポートするために導入した場合でも、これらのスイッチは、現在ネットワークの強化に必要とされるパフォーマンス、持続可能性、柔軟性、安全性を提供します。 主な機能は次のとおりです。 3600 WのPoE容量、ポート当たり最大90 W 全48ポートで60 W/40ポートで90 Wを同時にサポート Wired Assuranceを含むクラウドネイティブかつAIネイティブのスイッチ マルチギガビット(最大10 G) 2つのAC PSU 既存のEX4400スイッチと同等のJunos®機能 EX4400スイッチのいずれかを使用する最大10メンバーのバーチャルシャーシ この投稿では、レガシーアーキテクチャに見られる複雑さの課題について紹介し、最大3600 WのPoE容量を備えたEX4400-48MXPとEX4400-48XPが将来も使い続けられる理由を説明します。また、これらのスイッチの主な機能と技術仕様、主なユースケース、EX4400スイッチと競合他社製品との比較内容についても説明します。それでは、詳しく見ていきましょう。 重要な共通点:Wi-Fi 7とレガシーアーキテクチャの課題  Wi-Fi 7は無線を変革し、接続の可能性を広げ、パフォーマンスの向上、遅延の大幅な低減、効率性の向上を実現することを目指しています。しかし、こうした進化は、特に最新のスイッチング環境においては、ネットワークインフラストラクチャに新たな課題と考慮事項をもたらします。 レガシースイッチングシステムは、次世代の接続をサポートするために必要な拡張性と信頼性に欠けているだけでなく、非効率的で高コストでもあります。また、ビデオストリーミング、オンライン会議、高帯域幅で高電力のIoTデバイスなど、最新のユースケースによって高速化のニーズが高まるにつれ、これまで以上にエネルギー効率の重要性が増しています。最新のスイッチは、持続可能で拡張性の高いネットワークソリューションを実現するため、エネルギー消費を最適化しながら高速のパフォーマンスをサポートする必要があります。 規模に合わせて設計された高電力スイッチング:ジュニパーのアプローチ ジュニパーのEX4400-48MXPおよびEX4400-48XPスイッチは、Wi-Fi

Share