Transformer-XL官網
Transformer-XL是一種超越固定長度上下文的注意力語言模型,支持單節點多GPU和多主機TPU訓練,取得了最新的最佳結果。
網站服務:生產效率,注意力機制,語言模型,商業AI,生產效率,注意力機制,語言模型。
Transformer-XL簡介
Contribute to kimiyoung/transformer-xl development by creating an account on GitHub.
什么是”Transformer-XL”?
Transformer-XL是一種超越固定長度上下文的注意力語言模型,提供了PyTorch和TensorFlow的代碼實現。它在多個語言建模基準測試中取得了最新的最佳結果,并且是首個突破字符級語言建模1.0界限的模型。
“Transformer-XL”有哪些功能?
1. 支持單節點多GPU訓練和多主機TPU訓練。
2. 提供預訓練的TensorFlow模型,具有論文中報告的最新最佳性能。
3. 支持通過nn.DataParallel進行單節點多GPU訓練的PyTorch版本。
應用場景:
1. 語言建模任務,如文本生成、機器翻譯等。
2. 自然語言處理任務,如情感分析、命名實體識別等。
“Transformer-XL”如何使用?
1. 使用PyTorch版本:參考pytorch/README.md文件中的說明。
2. 使用TensorFlow版本:參考tf/README.md文件中的說明。請注意,具體的使用方式和詳細說明請參考各自版本的README文件。
Transformer-XL官網入口網址
https://github.com/kimiyoung/transformer-xl
OpenI小編發現Transformer-XL網站非常受用戶歡迎,請訪問Transformer-XL網址入口試用。
數據評估
本站OpenI提供的Transformer-XL都來源于網絡,不保證外部鏈接的準確性和完整性,同時,對于該外部鏈接的指向,不由OpenI實際控制,在2024年 4月 18日 上午1:31收錄時,該網頁上的內容,都屬于合規合法,后期網頁的內容如出現違規,可以直接聯系網站管理員進行刪除,OpenI不承擔任何責任。