BingはGoogleに対応し、検索結果を10倍高速に表示します

目次:

ビデオ: 激ドã‚ ランファン 手コã‚.wmv 2024

ビデオ: 激ドã‚ ランファン 手コã‚.wmv 2024
Anonim

MicrosoftのAI計算専用ハードウェアはBrainwaveと呼ばれ、最小限のレイテンシで可能な限り高速にニューラルネットワークを実行するように作成されています。

同社は、Brainwaveを使用して以来、BingのAIから10倍のパフォーマンスを得ることができたと発表しました。 機械学習モデルは、基本的に検索エンジンの機能を強化します。

Brainwaveを介して達成されるべきマイクロソフトの目標は、最新のBing機能などのアプリのリアルタイムAI予測を提供することです。

Bingは新しい機能を受け取ります

また、MicrosoftはBingにいくつかの新しい機能を提供します。言及する価値のある最も重要な機能は、ハウツー質問に対する回答を増やし、ユーザーがマウスポインターをマウスポインターで動かしたときにあまり使用されない単語の定義をサポートすることです。 これらの機能はBrainwaveによって支えられています。

Microsoftは、IntelのFPGAを使用してAI計算を強化しています

FPGAは、開発者が新しいソフトウェアを送信してさまざまな回路を展開するときに使用する一種の空白のキャンバスです。 これには、パフォーマンスとプログラマビリティの強力な組み合わせが含まれます。

現在、Microsoftはハードウェアを使用してより高速なモデルを作成する以上のことができます。 会社はより洗練されたAIシステムを構築することもできます。 たとえば、Bingのチューリングプロトタイプ1は、Brainwaveを介して追加された計算能力のおかげで、10倍複雑で高速になりました。

マイクロソフトが展開するFGAには、複雑なAI演算用に強化された専用のデジタル信号プロセッサが搭載されています。

FPGAの主な利点

GPUに対するFPGAの最も重要な利点(AI計算の優先選択となった)は、バッチ計算の広範な使用を必要としないことです。

主要な技術革新により、MicrosoftはFPGAを介してこのような成功した結果を得ることができ、8ビットと9ビットの浮動小数点データタイプを使用することで、パフォーマンスが大幅に向上します。

IntelのFPGAチップを使用すると、BingはWeb全体で数十億のドキュメントをすばやく読み取り、分析し、わずかな時間で質問に対する最良の回答を提供できます。

実際、インテルのFPGAを使用することで、モデルのレイテンシを10倍以上短縮し、モデルのサイズを10倍に増やすことができました。

FPGAを使用したAI計算の高速化は2012年に遡ります

Microsoftは、6年以上前にBingチームがチップの使用を開始したときに、FPGAを使用してAI計算の速度を向上させました。 これはすべて、Intelにとっても素晴らしいニュースです。 2015年にFPGAメーカーであるアルテラを買収し、167億ドルの取引により、Intelは今日までマイクロソフトのニーズに応えるために必要な電力を提供しました。

Microsoft Azureを介してBrainwaveが利用可能になり、顧客にモデルを展開する機会を提供できることを楽しみにしています。

BingはGoogleに対応し、検索結果を10倍高速に表示します