ディープラーニング
自動車、産業、医療等の広い分野に於いて機械学習実装が不可欠になっております。これまで、機械学習はCPUやGPUを使ったシステムでPoC開発する研究フェーズが主たる要件でしたが、最近はその研究結果を小型で低消費電力な組込み機器へ実装が求められるように成ってきました。 自動車、産業、医療分野に於いては、消費電力に起因する放熱の考慮、デバイスの長期利用やシリコンリビジョン管理、データ取得から判断・判定までの遅延時間のクリティカル性の考慮が必要と成っております。FPGAでのニューラルネットワーク実装はこれらの要件全て実現が可能であり組込み分野での採用が伸びています。
アヴネットでは国内・海外パートナーと連携したソリューションを各種用意して、お客様のニーズに対応したものをご提供します。また、FPGAベースの機械学習を簡単に評価可能にするキットを用意しています。
PYNQプロジェクト
PYNQは、ザイリンクスのオープンソースプロジェクトです。ザイリンクスのZynq-7000 AP SoCデバイスやUltrasScale+ MPSoCデバイスを利用した組込みシステム設計を容易にします。ソフトウエア設計者は、Pythonの言語とライブラリを使用して、Zynq-7000 AP SoCのプログラマブルロジックとマイクロプロセッサの利点を利用して、以下の様な多くの組込みシステムを構築できます。
- 並列ハードウェア実行
- 高フレームレートビデオ処理&機械学習
- ハードウェアアクセラレーションアルゴリズム
- リアルタイム信号処理
- 高帯域幅IO
- 低遅延制御
PYNQ.ioが提供するコニュニティプロジェクトのリンクを以下に示します。
http://www.pynq.io/community.html
対応ボード: PYNQ-Z1, PNYQ-Z2, Ultra96
XILINX DNNDK™
Deep Neural network Development kit
DNNDK は、ザイリンクスのエッジ AI プラットフォームで AI の推論機能を運用する際の生産性と効率性をさらに向上させます。
主な特徴
- 圧縮、コンパイル、運用、プロファイリングを含む包括的なツールチェーンを提供
- 主流のフレームワークと多様な深層学習タスクに対応できる最新モデルをサポート
- 軽量な標準 C/C++ プログラミング API を提供 (RTL プログラミングの知識は不要)
- コスト重視から性能重視のプラットフォームをサポートするスケーラブルなボード
- SDSoC と Vivado の両方を活用するシステム統合をサポート
DNNDK の内容:
- DEep ComprEssioN Tool (DECENT)
- Deep Neural Network Compiler (DNNC)
- Neural Network Runtime (N2Cube)
- プロファイラー
各種DNNDK情報はこちらよりアクセス可能です。
https://japan.xilinx.com/products/design-tools/ai-inference/ai-developer-hub.html#edge
対応ボード: ZCU102, ZCU104, ZCU106, Ultra96
適応型機械学習アクセラレーション
ザイリンクスMLスイートにより、開発者は加速されたML推論を最適化および展開できます。Amazon AWSを利用してCaffe、MxNet、Tensorflow、Python、RESTful APIなどの、多くの一般的な機械学習フレームワークをサポートしています。また、ザイリンクスのアクセラレーションカードを利用することでオンプレミスでの評価も可能です。
- xfDNNコンパイラ/オプティマイザ - オートレイヤ融合、メモリ最適化、フレームワーク統合
- xfDNN量子化、自動モデル精度のINT8キャリブレーションによるパフォーマンスの向上
- プラットフォーム - オンプレミスまたはクラウドサービスを通じて導入可能
各種リファレンスデザインはこちらよりアクセス可能です。
https://github.com/Xilinx/ml-suite
対応ボード: Alveo
Synkom Edge AI 開発環境
FPGA や ASIC、CPU で軽量・コンパクトなニューラルネットワークを実現するために、シンコムでは以下のようなモデル圧縮・最適化処理を行っています。
- ハードウェア実装に最適なモデル構成
- 2値化 (BNN) を含む低ビット化 (量子化)
- 枝刈りによる推論に不要な重みの削除
中原准教授が開発され、シンコムが提供する 「GUINNESS DREI : GUI Based Neural Network Synthesizer」 は、DNN ハードウェア化のための様々な技術が盛り込まれた、GUI ベースの Edge AI 開発環境です。
GUINNESS DREI は国産 Deep Learning フレームワーク 「Chainer」 をベースとして作られており、GPU を使った学習から、FPGA 向け高位合成モデルの生成までを、シームレスに繋ぎます。
GUINNESS DREI には、以下のような特長があります。
- FPGA 向けに最適化されたネットワークを、プリセットから選択可能
- 枝刈りや低ビット化による精度低下を最小限に抑えながら自動で学習
- ユーザーが準備したアノテーション済みデータセットを使用可能
- ユーザーが準備した学習済み重みからの、モデル圧縮~FPGA 実装が可能
- カーネルサイズや学習率・初期重みなど、ハードウェア化を行う上で重要なパラメータを GUI から設定可能
- 学習後は、FPGA 向け高位合成モデルをワンクリックで⽣成可能
- ターゲット FPGA に応じた最適なプラグマ記述
GUINNESS DREI を活用することで、ハードウェア化に適したモデルでの学習を簡単に実行できるだけでなく、 ターゲット FPGA に対して最適な並列化やメモリアクセス指示 (#pragma) が記述された高位合成用 C++ コードの自動生成が可能になるため、 学習から FPGA 実装までの TAT を、大幅に短縮することが可能です。
[動画] Real-time Object Detection on FPGA (YouTube)
Synkom社 Edge AI詳細はこちらからアクセス下さい
対応ボード: ZedBoard, ZC702, ZYBO, ZCU102, Ultra96
※評価版はご希望のお客様は、コメント欄に「Edge AI サンプル希望」とご記入のうえお問い合わせください。
Mipsology FPGAカード向けAIアクセラレーション
Mipsology 社 Zebra はFPGA設計を意識することなくAlveo 等のFPGA ベース・アクセラレーションカードにディープラーニングコンピューティングエンジンを搭載できます。学習済みCPU/GPUベースのニューラルネットワークをZebra Toolを介してシーム・レスに変換することが可能なので、設計者はFPGAに特化したアルゴリズム実装の煩わしさを一切気にすることなく低レーテンシ・低消費電力のニューラルネットワーク実装が可能と成ります。特に、小型化・低消費電力を両立したい製品に最適な製品となっております。
AMD-Xilinx
Alveo™アクセラレーションカード
Alveoアクセラレーションカードはあらゆるデータセンターのニーズに対応するために設計され、CPU対比で最大90倍のパフォーマンス向上を提供します。


アダプティブコンピューティング研究推進体 - ACRi
筑波大学、東京工業大学とアヴネット、ザイリンクスほかの企業による研究推進体。産学連携でのFPGA検証環境と学習機会を無償で提供します。