17年上期に流れてきたDeep LearningとHardwareな記事
URLまとめブログ
アナログはあんまりまとめていません.
OGAWA, Tadashi (@ogawa_tter) | Twitter さんをフォローしましょう.
総論
- The current state of machine intelligence 3.0 - O'Reilly Media
- Hardware options for Machine/Deep Learning | MS&E 238 Blog
- Efficient Methods and Hardware for Deep Learning
- Deep Compression and EIE @2016
- Deep Compression and EIE @2015
- Ph.D. theme; Efficient Methods and Hardware for Deep Learning
- 激化する「AIチップ開発競争」と、その先にあるニューラルネットワークの未来図|WIRED.jp
- ディープラーニングの車載応用に向けて
- Tutorial on Hardware Architectures for Deep Neural Networks
- https://qiita.com/HirofumiYashima/items/e6b5accae36f7ba478bc
- モデルアーキテクチャ観点からのDeep Neural Network高速化
TPU
- First In-Depth Look at Google’s TPU Architecture
- GoogleのAI開発を支えるディープラーニング専用プロセッサ「TPU」 - ISCA論文レビュー版から、その仕組みを読み解く (1) ニューラルネット需要を支えるために開発された専用チップ | マイナビニュース
- Google Cloud Platform Japan 公式ブログ: Google の Tensor Processing Unit (TPU) で機械学習が 30 倍速くなるメカニズム
- TPU論文の翻訳 (1)
- TPU論文の翻訳 (2)
- Hot Chips 29 - GoogleのAIを率いるJeff Dean氏が見据える未来とは (1) なぜニューラルネット/ディープラーニングが注目されるのか? | マイナビニュース
TPUv2
=>
— OGAWA, Tadashi (@ogawa_tter) 2017年9月1日
Jeff Dean, Google, Keynote, Hot Chips, Aug 22 2017 https://t.co/E5VGlqiKFC
TPU2
Reducing Inference cost
Bigger, but..
"Learning to learn" pic.twitter.com/9d3QORYBGV
Brainwave
DeePhi
モデル圧縮
畳み込み
量子化
- なにわTech20170218(tpu) tfug
- ニューラルネットワークの量子化についての最近の研究の進展と、その重要性 - SmartNews Engineering Blog
- Mixed-Precision Training of Deep Neural Networks | NVIDIA Developer Blog
バイナリネット
- バイナリニューラルネットとハードウェアの関係
- 2値ディープニューラルネットワークと組込み機器への応用: 開発中のツール紹介
- 2値化CNN on FPGAでGPUとガチンコバトル(公開版)
- Tensor flow usergroup 2016 (公開版)
- Binary Neural Networkのweight分析 | LeapMind BLOG
- 社内勉強会シリーズ第1回 2016年9月15日 | LeapMind BLOG
Binary & Almost Binary Networks (1/n)
— OGAWA, Tadashi (@ogawa_tter) 2016年12月3日
Binarized NNs, Mar 17 2016 https://t.co/KIMcABfDE5
*) v1: BinaryNet
XNOR-Net https://t.co/2mVic4MR1G
FPGA実装
- (公開版)Reconf研2017GUINNESS
- (公開版)FPGAエクストリームコンピューティング2017
- FPGAでDeep Learningしてみる - Qiita
- Abstracts of FPGA2017 papers (Temporary Version)
- BNN-PYNQを理解する(1) FAQ - tkato’s blog
- Real-time Computer Vision in Software using Custom Vector Overlays
- CaffePresson - An Optimized Library for Deep Learning on Embedded Accelerator-Based Platforms
- Neural Networks on Embedded FPGA-based Socs
- Building Large Systems with Neural Networks
- Programming with Neurons
- Neuons and FPGAs
ラズパイ実装
- Using Raspberry Pi GPU for DNN
- Pine64を10台でクラスタ組んで、Celeryで分散基盤を使って効率的に機械学習する - にほんごのれんしゅう
- エッジで安価にディープラーニング活用、Ideinが1.8億円を調達 | TechCrunch Japan
SqueezeNet程度の大きさだとRaspberry Pi 3のGPGPUではこんな感じ.RasPiにカメラモジュールとディスプレイ付けて撮像&1000クラス識別結果Top5を描画.もちろん計算資源はRasPi上で完結させておりネットワーク通信等による外部リソースの利用は無し. pic.twitter.com/MZMdEk9TDV
— Noriyuki OHKAWA (@notogawa) 2017年8月8日
アナログ
その他
- 深層学習の認識タスクにおいて、データ量を増やすと精度がどの程度向上するか - 緑茶思考ブログ
- Global optimality in neural network training
- TensorFlow XLA とハードウェア
- CNN最適化の制御式を生成するRNNの論文を読む - mabonki0725の日記
- ウェブブラウザ向け深層学習モデル高速実行フレームワーク「WebDNN」 // Speaker Deck
- 機械学習を用いた異常検知システム、NIがデモ - EE Times Japan
- 特異スペクトル変換法による時系列データの異常検知(Python) - Fire Engine
- Implementing Hilbert transform for Digital Signal Processing on epiphany many-core coprocessor - IEEE Conference Publication
arXiv
- [1705.06963] A Survey of Neuromorphic Computing and Neural Networks in Hardware
- [1703.03073] Deep Convolutional Neural Network Inference with Floating-point Weights and Fixed-point Activations
- [1703.04135] Hardware-Driven Nonlinear Activation for Stochastic Computing Based Deep Convolutional Neural Networks
- [1602.01528] EIE: Efficient Inference Engine on Compressed Deep Neural Network
- [1706.06197] meProp: Sparsified Back Propagation for Accelerated Deep Learning with Reduced Overfitting
- [1706.07853] Loom: Exploiting Weight and Activation Precisions to Accelerate Convolutional Neural Networks
- [1704.04861] MobileNets: Efficient Convolutional Neural Networks for Mobile Vision Applications