AIプログラミングができない要素技術者自身で開発できる 人工知能技術《深層学習とMTシステムの基礎・学習データ最小化・開発実務応用入門》
2024/5/16(木) 10:30-17:00
お問い合わせ
03-6206-4966
開催日時 | 2024/6/28(金)12:30-16:30 |
---|---|
担当講師 | 藤吉 弘亘 氏 |
開催場所 | Zoomによるオンラインセミナー |
定員 | - |
受講費 | 41,800円 |
〇Vision Transformerについて従来の手法と対比しながらその仕組みを解説し、
コンピュータビジョン応用を中心とした最前線についても紹介!
≪コンピュータビジョン応用を中心とした最前線について≫
【提携セミナー】
主催:株式会社情報機構
自己注意機構を活用したニューラルネットワークであるTransformerは、機械翻訳タスクでSoTAを達成し実用化を加速させている。このTransformerをコンピュータビジョンタスクに適用したモデルがVision Transformerであり、2019年以降、急速に応用と改良が加えられている。Vision Transformerは、CNNとは異なる新たな特徴表現獲得が可能となり、テクスチャノイズに対してロバストな認識が可能となっている。本セミナーではVision Transformerについて従来の手法と対比しながらその仕組みを解説し、コンピュータビジョン応用を中心とした最前線についても紹介する。
中部大学 工学部ロボット理工学科 教授 藤吉弘亘 氏
■専門および得意な分野・研究
計算機視覚,動画像処理,パターン認識・理解の研究
■ご略歴
1997年 中部大学大学院博士後期課程修了, 1997年 米カーネギーメロン大学ロボット工学研究所
Postdoctoral Fellow, 2000年 中部大学工学部情報工学科講師, 2004年 中部大学准教授,
2005年 米カーネギーメロン大学ロボット工学研究所客員研究員(~2006年), 2010年 中部大学教授, 2014年名古屋大学客員教授.
1 再帰型ニューラルネットワークの仕組み
1.1 再帰型ニューラルネットワーク(RNN)
1.2 LSTM
1.3 Seq2seq、Attention Seq2seq
2 Transformerの仕組み
2.1 Transformer
2.2 大規模言語モデル
3 Vision Transformerの仕組み
3.1 特徴表現獲得の変遷
3.2 Vision Transformer(ViT)
3.3 ViTによる画像認識
3.4 ViTによる特徴表現獲得
4 ViTの最新動向
4.1 ViTの派生手法(Swin Transformer、ConvNeXtなど)
4.2 ViTの派生手法の傾向
2024年6月28日(金) 12:30-16:30
Zoomによるオンラインセミナー
1名41,800円(税込、資料付)
*1社2名以上同時申込の場合、1名につき30,800円
*学校法人割引;学生、教員のご参加は受講料50%割引。
●録音・録画行為は固くお断り致します。
※配布資料等について
●配布資料は、印刷物を1部郵送、または資料データのダウンロードいずれかで調整中です。
●当日、可能な範囲でご質問にお答えします。(全ての質問にお答えできない可能性もございます。何卒ご了承ください。)
●本講座で使用する資料や配信動画は著作物であり、無断での録音・録画・複写・転載・配布・上映・販売などは禁止致します。
★下のセミナー参加申込ボタンより、必要事項をご記入の上お申し込みください。