PyTorch BERTモデルによる自然言語処理

本章では、PyTorchフレームワークを用いた Hugging Face Transformers BERTモデルによる自然言語処理を、 CPU、Neuronコアそれぞれで実行します。

Inferentia 推論チップ向けに事前学習済みモデルをコンパイルする手順、推論実行の最適化手法について体験します。

BERT (Bidirectional Encoder Representations from Transformers) is a Google Research project published in 2018 ( https://arxiv.org/abs/1810.04805 ). BERT has a number of practical applications, it can be used for question answering, sequence prediction and sequence classification amongst other tasks.

TensorFlowフレームワークを用いた BERTモデルによる自然言語処理はこちらをご参照ください。

本章を進めるにあたって、章3.3に従って PyTorch Neuron 開発環境が立ち上がっている事を確認して下さい。

(aws_neuron_pytorch_p36) ubuntu@ip-xx-xx-xx-xx:~$