英文字典中文字典


英文字典中文字典51ZiDian.com



中文字典辞典   英文字典 a   b   c   d   e   f   g   h   i   j   k   l   m   n   o   p   q   r   s   t   u   v   w   x   y   z       







请输入英文单字,中文词皆可:

whiffletree    


安装中文字典英文字典查询工具!


中文字典英文字典工具:
选择颜色:
输入中英文单字

































































英文字典中文字典相关资料:


  • Transformer を用いた動作の学習と生成 - J-STAGE
    本研究では,深層学習を用いて,入力動作に対応する出力動作を生成することを目的とし,動作生成モデルの構築と生成されるモデルの評価を行った.動作データの取得には Azure Kinect DK を使用し,深層学習モデルには Transformer ベースの時系列予測モデルを採用した.評価実験では,学習したモデルで生成した動作を被験者の目視による生成した動作の品質に関するアンケートを実施した.評価実験の結果,生成された動作は人間の動きとして自然なものが得られたが,一部の被験者について,自身の動作に対応した動作が正しく生成されないことが明らかになった.最後に,この評価実験の結果に関する考察を行った.
  • イラストだけで理解するTransformer/自己注意機構 - Qiita
    そこでこの記事では、 LLMの基盤技術となっているTransformerモデルの数学的なアルゴリズムを、なるべく演算内容に忠実な形でイラスト化し視覚的に説明 しています。 まず、セクション1では、Transformerモデルの概略構造を説明しています。 次にセクション2では、学習と推論時のTransformerへのデータ入出力を説明しています。 続くセクション3から8では、Transformer内部のアルゴリズムについて説明しています。 セクション9は、この記事で説明できなかったより詳細な技術的内容を簡単に取り上げています。 セクション10は参考にした文献の一覧です。
  • 多次元センサデータ処理のための Transformer を用いた自己教師 . . .
    今後の課題は、MLMタスクを基盤としてタスク難易度の調整による性能比較やデータセットの特徴と事前学習タスクとの関係をより詳しく調査することで、より効果的な事前学習手法を構築することである。
  • 波動ダイナミクスを基礎とする新たなTransformerの提案
    現在AI技術で広く使われている深層学習モデルであるTransformerの層方向における内部表現のダイナミクスを、物理ダイナミクスの観点から再解釈し、Transformerを深層化する上で問題になる過度な平滑化(オーバースムージング)を拡散方程式に対応づけて説明する枠組みを提示しました。
  • 物体中心表現を用いた Transformer ベースの世界モデルと因果 . . .
    方策関数および価値関数は,物体の性質に基づきトークン間の因果関係を予測することで,物体の性質をより正確に捉えた意思決定を可能する.
  • Transformerの構造深堀り #MachineLearning - Qiita
    このテキストを「予測する単語の直前まで」入力した結果、Transformerの各層を通過して以下のテキストが順に出力されることを学習します。
  • Transformerを用いた深層生成モデルによる教師なし物体認識 . . .
    しかし,現状では簡単なデータセットに適用範囲が限定されており,例えば実画像など一部のデータセットは上手く扱えないことが知られている.本研究ではTransformerを用いた新たなシーン解釈手法と,この手法に必要な自己教師あり学習の方法を提案し,既存手法では扱えなかったデータセットに対しても提案手法が有効であることを示す.
  • 生成AIとTransformerの理解まとめ - Qiita
    本レポートは、生成AIの中核技術であるTransformerと、その基盤となった論文「Attention Is All You Need」の理解を目的として理解したことをまとめたものです。
  • Transformerと自己教師あり学習を用いたシーン解釈手法の提案 . . .
    Transformerと自己教師あり学習を用いたシーン解釈手法の提案
  • 深層学習界の大前提Transformerの論文解説! - Qiita
    RNNを一切使わずにAttentionだけを使うことで、入力と出力の文章同士の広範囲な依存関係を捉えられるモデルTransformerを提案。





中文字典-英文字典  2005-2009