こんにちは。レトリバのリサーチャーの木村@big_wingです。 4月から静岡県の浜松市に引っ越しをして、引き続きフルリモートで働いています。 ずいぶん久しぶりになってしまいましたが、今回は簡潔データ構造シリーズの続きで順序木に対する簡潔データ構造に…
ONNX Runtimeのニューラルネットワークの推論をTensorRTやOpenVINOなどのライブラリを通じて高速化できるか実験しています。
こんにちは。レトリバの飯田(@meshidenn)です。TSUNADE事業部 研究チームのリーダーをしており、マネジメントや論文調査、受託のPOCを行なっています。 2020年4月から、東京工業大学(東工大)の岡崎研究室に社会人博士課程で所属しており、論文が一本出せた段…
音響学会2022年春季研究発表会で気になった音声認識分野の発表を紹介します
こんにちは。 リサーチャーの勝又です。 私はレトリバで自然言語処理、とくに要約や文法誤り訂正に関する研究の最新動向の調査・キャッチアップなどを行っております。 前回、深層学習の量子化について簡単な解説記事を公開しました。 今回は、深層学習の量…
Huggingface transformersモデルのONNXによる高速化の紹介です。
こんにちは。 リサーチャーの勝又です。 私はレトリバで自然言語処理、とくに要約や文法誤り訂正に関する研究の最新動向の調査・キャッチアップなどを行っております。 最近、深層学習の量子化について勉強する機会があったので、この記事では量子化の理論的…
こんにちは。レトリバの飯田(@meshidenn)です。TSUNADE事業部 研究チームのリーダーをしており、マネジメントや論文調査、受託のPOCを行なっています。 みなさんは、BERTなどの学習済み言語モデルに対して語彙を追加したくなることはありませんか? 諸々の論…
End-to-End音声認識で用いられるCTC誤差関数について解説する記事の後編です。
カスタマーサクセス部リサーチャーの勝又です。今回の記事では、事前学習モデルであるT5とTransformersを使って日本語文書要約を行った話を紹介します。
こんにちは。レトリバのリサーチャーの木村@big_wingです。 レトリバでは、研究動向・業界動向の把握のため、リサーチャーは積極的に国内学会に参加しています。 今回は第24回情報論的学習理論ワークショップ (IBIS2021)に参加しました。
こんにちは。レトリバのリサーチャーの木村@big_wingです。 今回は業務で久しぶりに触れる機会があったこともあり、極大部分文字列について紹介したいと思います。 極大部分文字列については、有志の方のブログやスライドが公開されています。私も今回久しぶ…
こんにちは。レトリバの飯田[(@meshidenn)](https://twitter.com/meshidenn)です。TSUNADE事業部 研究チームのリーダーをしており、マネジメントや論文調査、受託のPOCを行なっています。今回は、教師なしの文表現作成手法[SimCSE](https://arxiv.org/abs/21…
こんにちは。 リサーチャーの勝又です。 私はレトリバで自然言語処理、とくに要約や文法誤り訂正に関する研究の最新動向の調査・キャッチアップなどを行っております。 今回の記事では、LM-Critic: Language Models for Unsupervised Grammatical Error Corr…
レトリバのリサーチャーが、先日オンラインで開催された音響学会の研究発表会の参加報告と一部の発表の紹介をします。
東北大BERTに対して固有表現抽出タスクでFine-Tuningを行いTransformersのPipelinesで日本語固有表現抽出を行う方法をご紹介します。
今回の記事では、先日開催された自然言語処理のトップカンファレンスである、ACL-IJCNLP2021でBest Paperとなった、VOLTを日本語文書分類で試してみた話をします。
こんにちは。レトリバのリサーチャーの木村@big_wingです。 今回は今年のICML2021で発表されたSparseBERT: Rethinking the Importance Analysis in Self-attentionを紹介します。
deepspeedの紹介です。 これであなたも大きなモデルを学習できる!!
クエリも文書もベクトル表現にして計算してしまえ!ということで近年研究が盛んに行われており、BERT[^1]が提案されて以降、教師データがあれば、うまく行くことがわかってきています。さらに、近年、最近傍アルゴリズムが進歩し、内積計算が高速化したこと…
End-to-End音声認識で用いられるCTC誤差関数について解説する記事の前編です。
今回の記事では、事前学習モデルであるBARTを使って日本語文書要約を行った話を紹介します。
こんにちは、YOSHINA分析チームエンジニア兼スクラムマスターの野本です。分析AI「YOSHINA」の開発・運用を担当しているこのチームでは、生産性を維持・向上するために日々さまざまな取り組みを行っています。その取り組みの一つに「ベロシティーの導入」が…
昨年のNeurIPSで発表されたBig Birdという手法の紹介です。
今回の記事では、国立国語研究所との共同研究で作成した日本語話し言葉BERTとその利用方法について紹介します。日本語話し言葉BERTを使ってみたい方はぜひご覧ください。
ESPnetを用いて音声認識の学習と評価を試します。評価結果の見方についても解説します。
微分可能重み付き有限状態トランスデューサー(Differentiable Weighted Finite-State Transducers)の紹介をします。
検索の評価指標 こんにちは。レトリバの飯田(@meshidenn)です。カスタマーサクセス部 研究チームのリーダーをしており、マネジメントや論文調査、受託のPOCを行なっています。 前回は、検索結果にグレードをつけられる場合の検索エンジンの評価についてご紹…
今回の記事では、昨年12月にオンラインで開催されたAACL-IJCNLP2020の参加報告をしています。
ESPnet Model Zoo を利用して、学習済みを用いて音声認識をやってみる記事です。