DeepSpeedの紹介

Chief Research Officerの西鳥羽 (Jiro Nishitoba (@jnishi) | Twitter) です。
前回のブログでBigBirdを触ってみたを予告してましたが、BigBirdのような巨大なモデルを学習するために有用なライブラリがあったので、先にそちらを紹介したいと思います。
皆様は最近のモデルをみて、「お、いいな」と思うものの学習環境で16GPUとか64GPUなどの記述を見つけてしまい、遠い目をしながらそっ閉じした経験などありませんでしょうか。
今回紹介するDeepSpeed というライブラリは、物理メモリや外部SSDなどを活用してより大きなモデルを学習できるようにするものです。
実際GPUメモリ24GBのGeForce TitanRTX 2台でbaseサイズのBERTがほぼ同等の条件で学習できます。

続きを読む

CTC 誤差関数を完全に理解したい(前編)

こんにちは、リサーチャーの古谷(@kk_fry_)です。 私は普段、音声認識の研究開発をしています。 今回は、End-to-End 音声認識で用いられる Connectionist Temporal Classification (CTC) 誤差関数の計算式と微分について数式を追ってみたので、細かく書いてみようと思います。

記事が長くなったので、前後編に分けています。前編の今回は CTC 誤差関数の定義と計算方法を解説し、その偏導関数を導出します。 後編では、勾配の計算について解説し、解釈を考えてみる予定です。

続きを読む

事前学習モデルBARTを使って日本語文書要約をやってみた

こんにちは。 カスタマーサクセス部リサーチャーの勝又です。 私はレトリバで自然言語処理、とくに要約や文法誤り訂正に関する研究の最新動向の調査・キャッチアップなどを行っております。

今回の記事では、事前学習モデルであるBARTを使って日本語文書要約を行った話を紹介します。

続きを読む

ベロシティー導入までの道のりと効果

こんにちは、YOSHINA分析チームエンジニア兼スクラムマスターの野本です。分析AI「YOSHINA」の開発・運用を担当しているこのチームでは、生産性を維持・向上するために日々さまざまな取り組みを行っています。その取り組みの一つに「ベロシティーの導入」があり、最近良い効果が実感できてきたのでご紹介いたします。

続きを読む

日本語話し言葉BERTを作成、公開します!

こんにちは。 カスタマーサクセス部リサーチャーの勝又です。 私はレトリバで自然言語処理、とくに要約や文法誤り訂正に関する研究の最新動向の調査・キャッチアップなどを行っております。

今回の記事では、国立国語研究所様との共同研究で作成した日本語話し言葉BERTとその利用方法について紹介します。

続きを読む

ESPnet による音声認識入門 ~AN4データセットによる学習・評価~

こんにちは、製品企画部リサーチャーの古谷(@kk_fry_)です。 レトリバでは、主に音声認識の研究開発を行っています。

前回に引き続き、音声認識が実行できるオープンソースのツールキット ESPnet を触ってみる記事を書いていこうと思います。

前回は ESPnet Model Zoo を用いて、学習済みモデルを用いての推論を行いましたが、今回は ESPnet 本体を用いて音声認識の学習と評価をしてみたいと思います。

前回の最後に「学習済みモデルを用いた推論」と書きましたが、せっかくなので学習もやってみます。

続きを読む