限定版を提供中のExtreme Platform ONEは、マニュアルでの作業を最大90%削減し、業界で最も深く広範なネットワーク可視化機能と、最もシンプルなライセンス体系を提供Extreme Networks, Inc.(NASDAQ: EXTR)は本日、フランス、パリで開催されている同社のイベントExtreme Connect 2025にて、Extreme Platform ONETMの新機能の限定版をリリースしました。Extreme Networksは、業界で初めて、会話型AI、マルチモーダルAI、エージェント型AIを1つの強力なエンタープライズネットワーキングプラットフォームに統合しました。Extreme Platform ONEは、ネットワーキングとセキュリティ間のサイロを解消し、AIエージェントによるタスク自動化を実現するとともに、業界で最もシンプルなライセンス体系を提供することで、日常的なネットワーキングタスクを数時間から数分、数分から数秒へと短縮します。Extreme Networksは2025年初めに、E-Rate(米国における学校や図書館向け補助金制度)の顧客向けにプラットフォームの提供を開始し、マネージドサービスプロバイダー(MSP)向けに正式版のリリースを発表しています。https://investor.extremenetworks.com/news/ne
...morews-details/2025/Extreme-Expands-E-Rate-Eligible-Solutions-to-Include-Extreme-Platform-ONE-Empowering-K-12-to-Uplevel-Digital-Learning-and-Scale-IT-Operations-02-12-2025/default.aspxhttps://jp.extremenetworks.com/press/press-release/extreme-launches-platform-one-managed-service-providers/Extreme Networksのプレジデント兼最高経営責任者(CEO)であるエド・メイヤーコードは、次のように述べています。「Extreme Platform ONEは革新的で、お客様の時間の節約と業務効率化を実現し、チームの迅速な対応を可能にするインサイトを提供します。すでに130社以上のお客様にこのプラットフォームをご利用いただき、肯定的なフィードバックをいただいており、ネットワーク全体の可視性、制御性、効率性を新たなレベルに引き上げるという実際の効果を実感し、大きな励みとなっています。」Extreme Platform ONEの特徴● あらゆるインタラクションでAIを活用し、手作業の負担を最大90%削減:Extreme Networksの会話型、マルチモーダル、そしてエージェント型AIは、従来のAIOpsの枠を超え、製品ドキュメント、3万件以上のグローバル・テクニカル・アシスタンス・センター(GTAC)の記事、共通脆弱性識別子(CVE: Common Vulnerabilities and Exposures)、トレーニングコンテンツなど、信頼できるナレッジに一元的にアクセスできるようにします。あらゆるステップにAIが統合されているため、ユーザーは必要な時に必要な場所で回答を得ることができます。AI Canvasを使用すると、リアルタイムのインタラクティブなダッシュボード、共有可能なインサイト、そして視覚的なレポートを数分で生成でき、手作業によるレポート作成の負担を軽減できます。業界最先端のエージェント型AIを搭載したExtreme NetworksのService AI Agentは、自動診断によって解決時間を最大98%短縮し、人間が介在する体制のもと、より迅速でスマートなサポート体験を提供します。まるで最高のサポートエージェントが常に傍らにいて、24時間365日対応しているかのように、Service AI Agentはログを収集し、テレメトリを分析し、ワイヤレスとファブリック全体の問題を数秒で自律的にトラブルシューティングします。また、お客様のご希望に応じて、問題を自動修復することも可能です。エスカレーションが必要な場合は、ケースを自動生成し、フォームの入力や待ち時間なしでGTACに引き渡します。● 8クリックを1クリックに削減:生産性を向上し、不要な手順を削減:Extreme Platform ONEのワークスペースは、ネットワークオペレーター、調達チーム、経営幹部など、あらゆる役割の人々にリアルタイムで高度にパーソナライズされたエクスペリエンスを提供するためにゼロから構築された業界初のワークスペースです。単一のワークスペースにより、複数のアプリケーションをまたいで作業する必要がなくなり、生産性が向上します。この独自のチーム間AI支援ワークフローにより、統合された直感的なエクスペリエンスを通じて、部門横断的なチーム間のコラボレーションが向上します。● 非常に詳細かつ広範な可視化を実現し、ネットワークの盲点を排除:Extreme Platform ONEは、物理層、アクセス層、ファブリック層、サービス層全体にわたる可視性を、単一のログインで提供します。これにより、他のどの管理ソリューションやアプリケーションよりも詳細かつ広範な可視性が得られます。また、地理マップ、トポロジ、ファブリックオーバーレイなどの豊富なビューにより、グローバル環境から個々のポリシー、デバイス、サブスクリプションに至るまで、あらゆる情報を把握できます。さらに統合されたオーケストレーションとワークフローにより、複数のツールを使用する必要がなくなり、計画、設計、トラブルシューティング、根本原因分析(RCA)が効率化され、ダウンタイムを最小限に抑えることができます。West Suffolk NHS Foundation Trustのデジタルサービスデリバリー部門長であるAndrew Smith氏は次のように述べています。「私たちは複数の病院を管理しており、すべての建物、診療所、オフィスで何が起こっているかをプロアクティブに把握する手段が必要です。Extreme Platform ONEでは、ファブリックを含むネットワークのあらゆるレイヤーを可視化できるため、日々の業務が一変しました。すべての接続状況を瞬時に把握し、問題が深刻化する前に特定し、発生している状況の全体像を把握できます。組織が成長し、新しい施設を建設するにつれて、Extreme Platform ONEも私たちと共に成長し、サービスの拡張と優れた患者ケアの提供を容易にしてくれるでしょう。」● 統合アクセスセキュリティによるリスク軽減:ExtremeCloudTM Universal ZTNAを基盤として、AIを活用したポリシー推奨を提供します。わずか数クリックで適用でき、単一のアイデンティティベースエンジンによってアクセスセキュリティを簡素化します。ユーザー、デバイス、場所、ネットワーク、アプリケーション全体にわたってポリシーを統合することで、複雑さ、競合、エラーを削減します。アドバイザリAIエージェントがアクセスリクエストを検証し、最適なグループとポリシーの使用を提案して一貫した適用を保証、リアルタイムのセットアップガイダンスを提供します。この自動化により、数十もの手動ステップが不要になり、数時間かかっていた作業が数分に短縮され、セキュリティ運用の負荷が軽減されるとともに、一貫性と合理性を兼ね備えたセキュリティによってリスクが軽減されます。https://jp.extremenetworks.com/press/press-release/extreme-launches-platform-one-managed-service-providers/● 業界で最もシンプルなライセンス体系を実現:オールインワンのライセンス体系により、アップグレードと更新がシームレスになります。Extreme Networksは、資産と契約の完全な可視性、無料のソフトウェアトライアル、そして卓越した価値を提供する標準ライセンスで、これらすべてを簡素化します。Extreme NetworksのAIとスマートなワークフローにより、お客様は数分で更新手続きを完了し、最適なハードウェアの推奨事項を即座に受け取ることができます。Extreme Networksの最高製品責任者兼最高技術責任者であるナビル・ブカリは...
ポケモンGOで2025年3月5日(水)から開始している「パワーポテンシャ …
NECは、年内開示予定の自然関連財務情報開示タスクフォース(TNFD)レポートの作成業務に、Agentic AIの活用を開始した。同社は自社をゼロ番目のクライアントとして最先端のテクノロジーを実践する「クライアントゼロ」と位置付け、最先端技術の実践を通じてTNFDレポート作成業務の効率化と高度化を目指す。
オーストラリアのロイヤルメルボルン工科大学(RMIT)で行われた研究によって、人間の「目」と「脳」と「記憶装置」を同時に肩代わりし、振られた手の動きを一瞬で検知して省エネで判断する――そんな“脳型チップ”が誕生しました。
この小さなデバイスはまるで自身で判断して記憶するように、外部コンピューターの支援を最小限に抑えながら周囲の動きを検知し、スパイク信号と簡易的なメモリ機能を併せ持つ点が特徴です。
AIは人間の脳をある種のシミュレーション空間で模倣しますが、このチップは物理世界で人間の脳を模倣します。
目と脳が一体化したような新しいアーキテクチャにより、従来は困難だった瞬時の映像処理が可能になり、自動運転車やロボットなど次世代技術への応用が期待されています。
現在研究者たちはこのチップを多数備えて処理能力の巨大化を進めているとのこと。
脳のような動きをするチップは、私たちの未来をどのように変えるのでしょうか?
研究内容の詳細は2025年4月23日に『Advanced Materials Technologies』にて発表されました。
目次
なぜ『脳型ビジョン』が必要か?視る・考える・覚えるを1チップで自動運転の『第六感』へ――応用と課題
なぜ『脳型ビジョン』が必要か?
なぜ『脳型ビジョン』が必要か? / Credit:clip studio . 川勝康弘
私たちの脳は視覚情報を
...more効率的に処理し、必要なことだけを素早く判断します。
これに対して従来のデジタルカメラやコンピューターでは、映像をコマ送り(フレームごと)に取得し、大量のデータを逐次処理していました。
データ量が膨大になるほど処理に時間と電力を要し、リアルタイムに判断することが難しくなります。
この問題を解決するために登場したのがニューロモルフィック・ビジョンと呼ばれる技術です。
ニューロモルフィック(神経模倣)とは脳神経の働きを模倣するという意味で、人間の脳のようなアナログ信号処理を用いることで、従来のデジタル方式よりもはるかに省エネルギーで高度な視覚情報処理を実現しようとする試みです。
実際、研究リーダーのスミート・ワリア教授は「ニューロモルフィックな視覚システムは私たちの脳に近いアナログ処理を行うため、現在のデジタル技術よりも複雑な視覚タスクに必要なエネルギーを大幅に削減できます」と指摘しています。
脳を模倣したコンピューティングの核となるのがスパイキング・ニューラルネットワーク(SNN)と呼ばれる仕組みです。
これは、生物のニューロン(神経細胞)が電気パルス(スパイク)を発する挙動を再現したもので、信号が一定量蓄積されて閾値に達すると“発火”し、その後ニューロンがリセットされる漏れ積分発火(LIF)モデルが基本となっています。
SNNは不要な情報を抑えて必要な時だけスパイクを出力するため、省電力かつ生物に近い情報処理が可能です。
しかし、実際にこのようなニューロンの動きをデバイス上で再現し、カメラのような視覚センサーと統合することは大きな課題でした。
研究チームはこの課題に挑み、モリブデンジスルフィド(MoS₂)と呼ばれる原子レベルに薄い半導体材料を用いて、光で動作する人工ニューロンを作り出すことを目指しました。
MoS₂などの二次元材料は厚さ数原子のシート状物質で、電子的・光学的性質を電圧で細かく制御でき、省電力で柔軟なデバイス設計が可能になることから注目されています。
今回の研究では、この超薄型MoS₂に意図的に微小な欠陥(原子レベルの不完全構造)を導入し、光に対してニューロンのような応答を引き出せるかを探りました。
視る・考える・覚えるを1チップで
視る・考える・覚えるを1チップで / 図の(a)は、生きた神経細胞が刺激を受けたとき、電気が一気に流れて信号(スパイク)を出し、すぐ静かに戻る様子を描いています。図の(b)は、その動きを厚さ1原子層のMoS₂トランジスタで真似し、電気や光をためては一定量に達するとスパイクを出す「人工ニューロン」の仕組みを示しています。図の(c)では、写真を赤・緑・青の3色に分け、各画素の明るさをスパイクの出る速さに置き換えて“脳信号”に変換し、この人工ニューロンにつなぐ手順を示しています。/Credit:Thiha Aung et al . Advanced Materials Technologies (2025)
研究チームが開発したのは、モノレイヤー(一原子層)厚のMoS₂を使った小さな光センサー内蔵トランジスタです。
このデバイスに光が当たると、材料中の欠陥サイトが電子を捕獲・放出し、まるでニューロンが電気信号を溜め込み発射するような振る舞いを示します。
具体的には、光刺激によって電流が徐々に増大し(積分に相当)、閾値に達すると急激にスパイク信号を出力し、ゲート電圧を加えることで電流をリセットして次の刺激に備えるという、一連のLIFニューロン的な動作が確認されました。
筆頭著者のティハ・アウン博士課程研究者は「私たちは原子レベルで薄い二硫化モリブデンが、スパイキングニューラルネットワークの基本要素であるリーキー積分発火(LIF)ニューロンの挙動を正確に再現できることを実証しました」と説明しています。
つまり、原子レベルのチップにおいても脳の神経細胞のように電気を少しずつためては一定量でパッと放電する動きを、そっくりそのまま再現できることを確かめたのです。
このデバイスは光刺激による「膜電位」の蓄積とスパイク出力を一体化して行えるため、従来は別々の素子で担っていた「センシング(検出)」「情報処理」「メモリ保持」を融合できた点が画期的です。
さらに研究チームは、このMoS₂チップを実際のスパイキングニューラルネットワークに組み込み、CIFAR10(静的画像)とDVS128(動的ビジョン)のデータセットで最大約75~80%の分類精度を達成可能であることも示しました。
実験ではまず、目の前で手を振るというシンプルな動作を対象にデバイスの反応をテストしたところ、通常のカメラが行うようにフレームごとの撮影を行わずとも、手の動きによる視界の変化を即座に捉えることができました。
これはエッジ検出と呼ばれる手法で、シーン全体ではなく変化の部分だけを検知できるため、処理すべきデータ量と消費エネルギーを大幅に削減できます。
実際、手の振れによるわずかな明暗の変化を検知すると、その瞬間にスパイク信号を発して「手が動いた」というイベントを自動的に記録しました。
人間が目で動きを捉えて脳に伝え記憶するのと同様に、このチップ自体が見る・処理する・覚えるを完結させているのです。
ワリア教授は「この試作デバイスは、人間の目が光を捉える能力と脳が視覚情報を処理する能力を部分的に再現しており、大量のデータや大きなエネルギーを必要とせずに環境の変化を瞬時に察知できます」と強調しています。
さらにゲート電圧を用いたリセット機能により、一度記録した後はすぐに次の変化を捉えられる高速応答が可能です。
このように、本研究のMoS₂チップはセンサー・プロセッサ・メモリを統合した人工視覚ニューロンとして機能し、SNNの基礎技術としても応用できる可能性を示しました。
自動運転の『第六感』へ――応用と課題
自動運転の『第六感』へ――応用と課題 / Credit:Canva
今回開発されたニューロモルフィック視覚デバイスは、将来的に自律走行車やロボットの「目」と「脳」を一つにまとめる技術として大きな可能性を秘めています。
研究チームによれば、この技術を応用することで、自動運転車やロボットが予測困難な環境下でも、危険の兆候をほぼ瞬時に察知し、従来より格段に速い反応が可能になるといいます。
ワリア教授は「こうした応用分野でニューロモルフィック・ビジョン技術が実現すれば、大量のデータを処理せずともシーンの変化をほぼ即座に検出し、飛躍的に迅速な対応ができるようになります」と述べています。
ワリア教授は続けて「それは人命を救うことにもつながり得るでしょう」と強調しています。
共同研究者のアクラム・アル=ホウラニ(Akram Al-Hourani)教授は「人間と密接に関わる製造現場や家庭内でロボットが働く際にも、この技術によって人間の動きを即座に認識・反応できれば、遅延のない自然なインタラクションが可能になるでしょう」と期待を語っています。
このように、本技術は安全性が要求される自律システムや人と協調するロボットにとってゲームチェンジャーとなり得るでしょう。
もっとも、現在のチップは概念実証段階の単一ピクセルデバイスであり...
GitHub Copilot:新しいコーディングエージェントGitHub Copilot に新機能が追加されました。タスクやIssueの内容をもとに実装できるコーディングエージェントで、GitHub Actionsを使ってバックグラウンドで実行し、その作業をプルリクエストとして提出します。 GitHub Copilot に、新しいコーディングエージェントが加わりました。GitHub に直接組み込まれており、GitH...