Deep Learning Lab コミュニティ キックオフ 参加報告
Deep Learning Lab コミュニティ キックオフに参加してきました。
午前だけ有給取得して参加しました。
午後から仕事の予定だったので、懇親会は早々に切り上げてきました。
しかし、色々あって午後も休暇を頂いたので、気持ちが冷めないうちにブログを書きます。
各セッションの資料は公開されるのかな?
Deep Learning Labとは、
Deep Learning Lab(ディープラーニング・ラボ)は、ディープラーニングを中心とした先端技術の持つ可能性を、実際のビジネスへ応用するべく、技術とビジネスの両面に精通したプロフェッショナルたちが集まるコミュニティです。Microsoft AzureとChainerを、主要なプラットフォーム/フレームワークとして、ニーズに合わせた最適な技術を選択し開発した事例や、最新技術動向の情報発信を行い、ディープラーニング領域のソリューション検討を具体的に進められるように支援します。
ちなみにロゴは脳をモチーフにしていて、Deep Learning Labの頭文字であるdllが書かれてるそうです。
4つのセッションがありました。印象に残った点をまとめると、
- DeepLearningのビジネスでの活用事例や技術動向を共有して、AIの実社会利用を推進していくとのこと
- ChainerやDIMoがすぐ使える環境をAzureに用意するとのこと
- 3年で5万人のAI技術者の育成を目指すとのこと
- その他、私の感想
- 技術動向については知ってるものが多かった
- DIMoの中身は知らなかったので、面白かった
- 特に、ビジネスに活かすための考え方、参考になることが多かった
- 闇雲にDeepLearningでなく、目的に応じて使うことが大事だとあらためて思った
以下は、それぞれのセッションについて印象に残ってることをメモします。
セッション中にとったメモベースなので、誤解してる内容があればすみません。
★は、聞きながら重要と思ったところ。
Preferred Networks と Microsoft の業務提携が意味するもの
株式会社Preferred Networks
取締役 最高執行責任者 COO
長谷川順一氏
(途中からPFNのリサーチャー斉藤氏による説明)
ChainerとDIMoをMicrosoftのAzureで簡単に使えるようにするとのこと。
→ AIの普及推進のため
3年で5万人のAI人材を育成
→すごいな… そんなにいると単価が下がる??
DIMoは、異常検知アルゴルやGUIなどツール含むパッケージ
様々なPoCで使っているとのこと
DIMoによるPoCの一例としては、
- 外観検査
- 現状目視を自動化をしたい
- 数値予測
- 明日はどれくらいのエネルギー必要かの予測
- パラメータ最適化
- 機械のパラメータの調整
- 他にも色々あった
DIMoパッケージ紹介
ここから、PFNリサーチャー斉藤氏にバトンタッチ
DIMoで具体的にどんなことができるかの説明。
NTT Comの再照合技術
PFNが技術協力している
カメラで正面から高画質に撮らなくても認識できるように
プレスリリースは以下。
http://www.ntt.com/about-us/press-releases/news/article/2016/20160330.html
外観検査
製品の傷あり、なしのデータで学習
学習データには、傷の場所のラベルは不要とのこと
NNの出力として、傷の有無のスコアと傷の場所が出せるそう
DIMoは、教師データ作成のアノテーションツールやGUIなどフロントエンドUIを提供している
Chainer v2では、学習時のGPUメモリが削減された
保持しなくてもいい配列を減らすことで実現。
また、Cupyを別リポジトリに移動し、DeepLearning以外のユースケースでもCupy単独で使えるように。
ChainerをWindowsで動かせるようにもしている
今もできるが、環境構築手順がめんどい(Visual C++、Cudaなどのインストール)
今後は、ビルド済みバイナリ配布など検討しているとのこと
現状でも、Azureに用意されたData Science VMはGPUやPython環境が整っている
しかしChainer等はプリインストールされていないとのこと。
Chainerno追加パッケージとして以下がある
- ChainerMN
- 理想値に限りなく近いスケールアウトを実現(Azureでも試した)
- 予算に応じてスケール設定を変えられるようなマネージャーツールの提供も検討
- Azure Resource Manager
- ChainerRL
- ChainerCV
- Faster R-CNNとかSSDとかSegNetなども、自前のデータでトレーニングできる
- https://github.com/chainer/chainercv
ディープラーニング技術の最新事例と導入の課題
株式会社Ridge-i
代表取締役社長 柳原尚史氏
PFNの研究成果をフレームワーク化したものがDIMo
Ridge-iは、DIMoの導入等、検討から導入までサポート
目先の効率化や、とりあえずのAI導入は駄目
3歩先をみると、今手元に何のデータが足りないかなどわかってくる★
AIやりたい人はたくさんいるが、何を使えばいいかなどわかる人材は不足
AIという言葉は曖昧。機械学習以外も含む…
1つ1つの案件をスクラッチでやるのは非効率なのでフレームワークDIMoを使う
2フェーズでコンサルする
- コンサルテーションフェーズ
- 課題はなに?を分析する。
- 解決策はDeepLearningにこだわらない。
- DIMoを使う必要ある?他のAIでできる?など判断
- Big Pictureを描く
- ソリューション開発フェーズ
- 導入支援、カスタマイズ
Semantic Segmentationか、Bounding Boxか
→車の位置を求めたいくらいなら、BBoxでじゅうぶん
→車の下に人がいるかを検出したいならSegmentationなど、用途に応じて選択
DL Shimons
- 音楽生成。5000曲位のクラシックやジャズを学習すると作曲する
- 作曲家らしさを良く抽出するらしく、
- 実際のBachの曲とShimonsがBachで学習して生成した曲を人に聞かせると、
- Shimonsの曲の方がBachらしいと感じるそうだ。
DeepLearningでしか解決できない課題はなんだろうと考える★
ルールベースでは解決できない課題
→自動彩色はまさにそのタスク
ローマの休日の自動彩色の例
- ImageNetで学習したぽい
- 課題は、服や車などの色に多様性がある部分はすべてセピア色になることだそう。
→汎用化されすぎたことが問題。そこそこOverfittingさせたほうが良いことも。
一方、Overfittingさせて成功した例:昔の大相撲の映像のカラー化
https://www.youtube.com/watch?v=E0DLqV81FMg
あえて汎用化でなくOverfittingすることもビジネスによっては大切★
→学習のさせ方で工夫が必要
ここからは、実活用への技術課題について。
自動運転は複数のDeepLearning技術の組み合わせが必要★
- 現状のモデル化
- 障害物検知DL、行動予測DLなど
- 行動のプランニング
- 強化学習
1台の車だけ上手く動かすのでなく、渋滞しないように複数台を制御するための渋滞予測なども必要
→組み合わせが重要
全体像を描き、どこがクリティカルパス化を見極め、
1の矢、2の矢が失敗してもビジネスとして成り立つよねという考え方が重要★
あとは、どの技術レイヤでやるか
例えば、渋滞予測はクラウド、衝突回避はエッジ
技術の組み合わせの良い例が、NTTのリアルタイム人物監視
DL1つで解決するのではなく、ビジネスのためにどうするか
どうすれば競争優位に立てるか、などちゃんと考える★
DIMoの操作実演とSCSKが提供するプログラム
SCSK株式会社
AIビジネス推進室
課長 島田源邦氏
DIMoの説明とデモ。
ソフト屋の目線では、この発表が面白かったです。
DIMoを使えば複雑なコーディング不要でDeepLearningシステムを組める
→とはいえ、現状は設定ファイルとしてBQLやJSONを書いたり、CUI操作も一部ありそう
DIMoは、大きく3つのモジュールから構成。
各モジュールは独立したDockerのコンテナで動くっぽい説明。
各コンテナのOSはUbuntuだが、今後はWindowsもサポート予定
3つのモジュールの説明
- Hawk
- Scouter
- Kanohi(かのひー)
- 認識結果の可視化ツール
- 位置や属性の統計情報を、フロアマップ上にオーバレイするとか
ここからはデモ。
今回はAWSで動かしてるそう。
- Hawk
- Scouter
- Kanohi
SCSKはDIMo研修プログラムを提供
トレーニング展開のご紹介
P40/P100のGPUが夏までにはAzureでも使えるようになる★
VMのセットアップの時間で課金されるのが嫌だという開発者の声
→データサイエンス仮想マシンを提供
Azure Batch??
SQL Server 2017のストアドプロシージャでR,Pythonが動く
→Chainerも動く!
お客様のデータはRDB上にあるので、その上でDeepLearningできたら、
便利だし、DBからデータを出さないのでセキュア★
PFN x MS 認定トレーニング
- AI凄いぞと世間が騒いでる割には、使える人材が不足。
- AIの実利用を空想で終わらせないために、人材育成が必要
今まではエンジニア向けや初歩のトレーニングが多かった
今、マーケットの課題は、MNISTなどの基礎はできるがその先は…という感じ。
今回のトレーニングは、3種類のオーディエンス向けに作成
- ビジネス経営企画
- エンジニア
- アカデミック
MSにラボ環境があるので、これからはハンズオンをどしどしやっていきたい
講師とコンテンツがボトルネック
機械学習を理解していて、かつ教えるのが上手い人が少ない★
Deep Learning Labのご紹介
日本マイクロソフト株式会社
新井浩之氏
connpassのロゴは、脳をモチーフにしてるらしい。頭文字dll
DLの技術だけでなく、ビジネスの両面に精通したプロが情報発信するコミュニテイにしていく★
生の情報を持つSIerの話や実例が聞けるようにする
また、「こんなプロジェクトやりたい」に対してマッチングできる場にも
今後は定期的に勉強会などやっていく
懇親会も活用してね
その他
懇親会では、参加者の方から面白い話が聞けました。
外に出ると、やっぱりモチベーションアップに繋がりますね。
次回のイベントは7/25にあるとのことで、早速申し込みました。 平日ですが、また有給取って行こうと思います。
私としては、エッジ側でDeepLearningをどう実装していくかに興味があるので、
そうした内容を今後取り上げてくれると嬉しいかな。
イベントの1時間ほど前に東京駅に着いたので、皇居外苑のベンチで読書してました。 爽やかに晴れていたので、とても気持ちよかったです。 良い息抜きになりました。
BNN-PYNQを理解する(3) ハードウェア概要・実装
BNN-PYNQのハードウェアの概要・実装、ソフトウェアのシーケンスなど更新しました。 (追記5/21 上記の更新したつもりができていませんでした。本日更新しました)
https://tkat0.github.io/study-BNN-PYNQ/
論文とアクセラレータ側の実装を読みつつ、概要から順にまとめているところです。
以下、アクセラレータの実装を読んで、C++のテンプレートの使い方が面白いなと感じたので記事にしました。*1
BNN-PYNQのハードウェア実装について
BNN-PYNQのアクセラレータのコアであるMVTU*2の実装を見るとわかりますが、C++のテンプレートで定数を記述してます。
BNN-PYNQ/matrixvector.h at master · Xilinx/BNN-PYNQ · GitHub
最初実装を見たとき、普通の引数で変数を渡せばいいじゃん、と思っていたのですが、これは高位合成したHWの性能を出すために必要なんですね。
高位合成で性能を出すためには、挙動がコンパイル時に静的に決まるような書き方をすることがポイント
C++のテンプレートを使えば、関数呼び出し毎に定数を変えられる(定数の異なる関数を生成できる)
C++のテンプレートを上手く使うと、ハードウェア化したときに性能がでるC++コードを簡単に記述できて便利だと思いました。
高位合成の実装をするときは、こんな感じで使い分ければよいかな?
- コンパイル時に決定できる定数(ノード数など)
- 関数呼び出し毎に変えたいパラメータ
- →テンプレート定数
- 関数呼び出し毎に同じパラメータ
- →定数(const)
- 関数呼び出し毎に変えたいパラメータ
- コンパイル時に決定できない変数(バッチサイズなど)
- →引数で変数を渡す
ただし、Vivado 2017.1では可変長のループでも最適化されるようになったとの噂。 もしかして、今後は上記のような実装を意識しなくても効率的な実装ができるのかな?
BNN-PYNQを理解する(2) ソフトウェア全体像
今回は、BNN-PYNQのソフトウェアの構成をざっくり図にしてみました。
詳細は、以下にて。
https://tkat0.github.io/study-BNN-PYNQ/
BNN-PYNQについては、今後は上記でまとめていきたいと思います。
理由としては、
- ブログより単一のサイトとしてまとまっていた方が後から読みやすい
- 文書の構成管理をしたい
- オフラインでも作業できる (結構 移動時間が多いのです…)
などなど
BNN-PYNQを理解する(1) FAQ
3月以降、仕事が激しくなり、余暇もほとんど仕事に関わる分野の勉強に当てていました。 以下の5/20のイベント出席に向けて、DeepLearning x FPGAの勉強を再開しました。
「PYNQ祭り」延長戦 : FPGAディープラーニング実践懇親会 - connpass
まずは、手近な勉強材料としてBNN-PYNQのソースを解析してみました。 勉強した内容は、ブログに何回かに分けて書きたいと思います。
尚、BNN-PYNQのソースコードは5/2時点で最新のものを使いました。
GitHub - Xilinx/BNN-PYNQ at a86e0863418ce4161ed61b69ba89ec1481014362
初回は、自分も含めて多くの人が気になりそうな話題について、ざっくりFAQ形式で書きたいと思います。
BNN-PYNQってなに?
ホビーFPGAボード"PYNQ(ピンク)“で動作するNeuralNetworkのシステム。 行列演算などをハードウェア化することで、DeepLearningアルゴリズムを、CPUより高速化(アクセラレーション)する試みが、至る所で行われています。これもその一種。
推論に関しては、Pythonのアプリケーション層、Cのドライバ、高位合成用の実装まで、全コード公開されているためDeepLearningのアルゴリズムをFPGAで動かすことを学ぶには良い素材です。
アプリケーションは、例えば以下。
BNN-PYNQ/Cifar10.ipynb at master · Xilinx/BNN-PYNQ · GitHub
BNN-PYNQは同じNeuralNetworkをCPUとFPGAそれぞれで動かせるようになっていて、「CPUよりFPGA化したほうがこんなに速いよ」という内容が上記でも確認できます。
BNN-PYNQは、以下のような工夫をして高速化しています。 詳細は論文*1に記載があります。
- 演算精度のバイナリ化(0,1)
- メモリの使用量、転送量を削減
- ビット演算器を活用した高速化
- 演算の並列化
学習も推論もFPGAでやるの?
No。学習はPCで行い推論をFPGAで実行する仕組み。
PCのDeepLeraningフレームワークで学習したモデルを、BNN-PYNQ用のデータフォーマットに変換するスクリプトは付属しています。 現時点でTheanoで学習したパラメータの変換に対応しているようです。 サンプルは、Lasagne(Theanoをバックエンドにできる)で記述されています。
データフォーマットの変換だけなので、ちょいとスクリプトを書けば、TensorFlowやChainerなどとも連携できるはずです。(今度のイベント向けにやってみようかな)
認識精度は?
付属の学習済みモデルに関する認識率は、ここに記載があります。
BNN-PYNQ/bnn/src/training at master · Xilinx/BNN-PYNQ · GitHub
バイナリ化しない場合に比べて、GPUでの学習時間がすこし長い印象がありますが、どうなんでしょうか?
PCで動く任意のモデルをFPGA化できるの?
No。現状はLFCとCNVと呼ばれる2種類のモデルに対応してます。 例えばLSTMなど含むモデルは動かせません。
ただし、BNN-PYNQが対応しているレイヤーで構成されるモデルであれば、FPGAのリソースに乗る範囲でレイヤーを組み替えて任意のモデルは作れると思います。
BNN-PYNQでは、バイナリ化したConvolutionやFullyConnectedレイヤーのハードウェアを使います。 そのため、PC側もそれに合わせてバイナリ化したレイヤーを定義して学習しないと、学習した重みをFPGAに乗せられません。 通常のPC側のフレームワークだとfloat(32bit)で計算する部品がほとんどです。 そのため、BNN-PYNQでは、PCのフレームワーク用にもバイナリ化したレイヤーを定義して、それを用いてモデルを作り、学習しています*2。
もし、ConvolutionやFullyConnected以外を使いたい場合は、ハード側にそのレイヤーを実装するか、そのレイヤーをソフト処理するかだと思います。 しかし、ソフト処理は現実的ではないと思います。BNN-PYNQは推論開始後、最期のレイヤが計算完了するまで制御がCPUに戻らない仕組みです。そのため、途中の一部のレイヤだけソフト処理にするのはBNN-PYNQのコアの修正が必要で、できたとしても速度が遅くなると思います。 そのため、追加したいレイヤーのCPUよりも高効率なハードウェアアルゴリズムを考えて、それを高位合成なりでハード化するのが面白いんじゃないでしょうか??
任意のデータで既存のモデル(LFCとCNV)を再学習できるの?
Yes
CNV, LFCは それぞれ学習データのフォーマットが決まっているので、それに従い作成したデータなら学習可能です。
任意のタスクにBNN-PYNQを応用する場合は、まずは既存のネットワーク(LFC,CNV)を使うところから考えるのが良さそうですね。
CPUとアクセラレータ間のデータ転送のタイミングは?
データのコピーが性能上のボトルネックになるので、どのタイミングでコピーしているかは重要です。 ソースを見ると、以下のタイミングでコピーが発生しているようです。
推論中は、アクセラレータとメモリ内で閉じて演算しているようです。
最期に
今回は書けなかったのですが、ソフト側のソースはざっくり読みました。
以下のような流れでPythonからアクセラレータを叩いています。 モデル依存のC実装は薄くて、コアライブラリ(共通部)が厚いかんじ。
- Pythonのラッパーから、CFFIを使ってモデルのCライブラリを叩く
- モデルのCライブラリは、コアライブラリを叩いて、パラメータの設定や推論の実行を命令する
- コアライブラリは、アクセラレータのドライバを叩いて、アクセラレータ用のバッファ管理やレジスタ制御を行う
アプリからハードまで、ほんとに勉強になりますね…
次回はソフト側の記事を書きたいと思います。
*1:https://arxiv.org/abs/1612.07119
*2:元祖 Binarized Neural Networksの論文の実装をベースにしてるぽいですね
BNN-PYNQをリビルドする
本日3/7、XilinxがPYNQで動くBinarized Neural Network (BNN)の実装を公開しました。 DeepLearnigのアルゴリズムをFPGAにオフロードしたい人にとっては、とても良い勉強材料になると思います。
リポジトリ公開当初は、Pythonで共有ライブラリをキックする部分とビルド済みの共有ライブラリしか公開されておらず、ドライバとアクセラレータのソースは非公開でした。
中身を詳しく追う前に、とりあえずビルドしてみました。
ビルド環境
- Ubuntu14.04
- SDSoC 2016.1
ビルド用のスクリプトが付属しているので、それを実行するだけでできました。 SDSoCそのものは使いません。付属のVivadoとVivado HLSを使います。 最初Windowsで試してみましたが、うまくいかず…*1
ビルド手順(ハードウェア)
以下に記載があります
BNN-PYNQ/README.md at master · Xilinx/BNN-PYNQ · GitHub
ハードウェアのビルドは「Hardware design rebuilt」に記載がある通り。
環境変数XILINX_BNN_ROOTは/BNN_PYNQ/bnn/src/network/では動かなかった。/BNN_PYNQ/bnn/src/が正しそう。*2
BNNのアーキテクチャはCNVとLFCがあります。 今回LFCを試したところ、実行開始から10分程度でbitstream生成まで終わりました。
./make-hw.sh lfc-pynq pynq a
ビルド手順(ソフトウェア)
Pythonとハードウェアの間にあるCのドライバのビルド方法。こちらは、PYNQ上でビルドする必要があるようです。上記READMEの「Quick Start」に記載ありますね。
その他
自前で書いていたBNNはビルドに少なくとも20分はかかる上、性能もソフトより遅かったので、BNN-PYNQのコードが公開されたことは勉強する上で非常に嬉しい。ソースを見ていると、hls_streamがデータフローの基本になっているよう。
SDSoC 2015.4でPYNQのOverlayを開発する(3)
SDSoC 2015.4でPYNQの簡単にプラットフォームを作る話です。次はSWプラットフォームの作成。
これはAdam Taylor氏の以下のブログのやり方をそのままやりました。ビルド済みのカーネルをそのままコピーし、自分ではなにもしないので簡単。
まずGitHubのPYNQリポジトリ*1より、以下をSDSoCプラットフォームのディレクトリ(任意)へコピー
- devicetree.dtb
- fsbl.elf
- u-boot.elf
- boot.bif
次に、PYNQのSDカードイメージ*2をSDカードに焼き、boot領域からuImageをSDSoCプラットフォームのディレクトリへコピー
最期に、SDSoC用のpfmファイルを作成。パスは、pfmファイルからの相対パス。
<?xml version="1.0" encoding="UTF-8"?> <xd:repository xd:vendor="xilinx.com" xd:library="xd" xd:name="pynq" xd:version="1.0" xmlns:xd="http://www.xilinx.com/xd" > <xd:description>Basic platform targeting the PYNQ-Z1 board</xd:description> <xd:bootFiles xd:os="linux" xd:bif="boot/boot.bif" xd:readme="boot/generic.readme" xd:devicetree="boot/devicetree.dtb" xd:linuxImage="boot/uImage" xd:ramdisk="boot/uramdisk.image.gz" # これはたしかZyboかなにかのplatformからコピーしてきたような。。。 /> </xd:repository>
SDSoC 2015.4でPYNQのOverlayを開発する(2)
SDSoC 2015.4でPYNQの簡単にプラットフォームを作る話です。まずはHWプラットフォームの作成。
前回のまとめ
現時点でリリースされているPYNQのROMはSDSoC 2015.4でビルドされたライブラリを含むため、それ以外のSDSoCのバージョンを使う場合は、Linuxカーネルのリビルドが必要。SDSoC 2015.4を使うのが一番簡単。
ポイント
HWとSWの2つのプラットフォームを作る必要があります。基本的にAdam Taylor氏のブログの手順と同じことをします。*1。以下のリンクの前後の記事もPYNQの話なので読むことをおすすめ。
SDSoCプラットフォームの作成については、UG1146 - SDSoC 環境プラットフォーム開発ガイドや以下の動画で全体像を把握しておくことをおすすめ。
SDSoC 環境入門 (パート 3) : カスタム プラットフォームの生成 (日本語吹替) - YouTube
プラットフォーム作成手順を簡単に概要をまとめます。
- HWプラットフォームの作成
- Vivado 2015.4で新規プロジェクトを作成
- ZYNQとreset IP、割り込み信号のconcat IPだけの簡単なデザインをつくる
- HWプラットフォーム作成用のtclコマンドを実行し、*.pfmファイルを生成
- メタデータファイルの作成
- SWプラットフォームの作成
HWプラットフォームの作成
PYNQのリポジトリには、Base OverlayのVivadoプロジェクトファイルがあります。これをベースにしてHWプラットフォームを作成するのが簡単かと思いました。しかし、このプロジェクトはVivado 2016.1で作成されているためVivado 2015.4で扱うことができませんでした。
そのため、Vivado 2015.4でプロジェクトを新規作成することにしました。
Block Designはこのように作りました。
Adam Taylorのブログでは、LEDなどの結線もありますが今回は省略。これらは、Linux起動直後に呼ばれる以下のPythonスクリプトでLEDを点滅してるのに対応するためのようです。
ZYNQの設定は、本来ならベンダーが提供する設定ファイル(Zynq Presets)*2をインポートすれば済むはずですが、インポート時にエラーが生じたため、Vivado 2016.1でPYNQのBase Overlayのプロジェクトを開きZYNQの設定を1つ1つ確認しながら、Vivado 2015.4でも同じ設定をしました。
あとは制約ファイル(Master XDC)*3の追加も忘れずに。
最期に、pfmファイルを作成するtclコマンドを実行して、pfmファイルを作ります。tclコマンドは、以下のスクリプトファイルにまとめておいて、実行しました。事前にSDSoCのインストール先のscripts/vivado/sdsoc_pfm.tclを実行して、sdsocのコマンドをVivadoに読み込ませる必要がある点に注意。
set pfm [sdsoc::create_pfm pynq_hw.pfm] sdsoc::pfm_name $pfm "xilinx.com" "xd" "pynq" "1.0" sdsoc::pfm_description $pfm "PYNQ-Z1" sdsoc::pfm_clock $pfm FCLK_CLK0 ps7 0 false proc_sys_reset_0_100M sdsoc::pfm_clock $pfm FCLK_CLK1 ps7 1 false proc_sys_reset_1_142M sdsoc::pfm_clock $pfm FCLK_CLK2 ps7 2 true proc_sys_reset_2_200M sdsoc::pfm_clock $pfm FCLK_CLK3 ps7 3 false proc_sys_reset_3_166M sdsoc::pfm_axi_port $pfm M_AXI_GP0 ps7 M_AXI_GP sdsoc::pfm_axi_port $pfm M_AXI_GP1 ps7 M_AXI_GP sdsoc::pfm_axi_port $pfm S_AXI_ACP ps7 S_AXI_ACP sdsoc::pfm_axi_port $pfm S_AXI_HP0 ps7 S_AXI_HP sdsoc::pfm_axi_port $pfm S_AXI_HP1 ps7 S_AXI_HP sdsoc::pfm_axi_port $pfm S_AXI_HP2 ps7 S_AXI_HP sdsoc::pfm_axi_port $pfm S_AXI_HP3 ps7 S_AXI_HP for {set i 0} {$i < 16} {incr i} { sdsoc::pfm_irq $pfm In$i xlconcat } sdsoc::generate_hw_pfm $pfm
これで、pynq_hw.pfmがVivadoのカレントディレクトリに生成されます。HWプラットフォームの作成は以上。
おわりに
プラットフォームを作成したりするとなると、結局Vivadoの知識やLinuxの知識が必要です。Vivadoについては以下の本を読んで概要を理解しました。おすすめです。
*1:ただし、使用したSDSoCのバージョンの記載がないなど色々行間を読む必要があり、この記事だけではプラットフォームを作れなかったので前回の記事の通りAnurag Dubey氏に質問したのでした
*2:http://store.digilentinc.com/pynq-z1-python-productivity-for-zynq/
*3:http://store.digilentinc.com/pynq-z1-python-productivity-for-zynq/