英文字典中文字典


英文字典中文字典51ZiDian.com



中文字典辞典   英文字典 a   b   c   d   e   f   g   h   i   j   k   l   m   n   o   p   q   r   s   t   u   v   w   x   y   z       







请输入英文单字,中文词皆可:

antiphonal    
a. 交互轮唱
n. 轮唱赞美诗集

交互轮唱轮唱赞美诗集

antiphonal
adj 1: containing or using responses; alternating; "responsive
reading"; "antiphonal laughter" [synonym: {responsive},
{antiphonal}]
2: relating to or resembling an antiphon or antiphony [synonym:
{antiphonary}, {antiphonal}]
n 1: bound collection of antiphons [synonym: {antiphonary},
{antiphonal}]


请选择你想看的字典辞典:
单词字典翻译
antiphonal查看 antiphonal 在百度字典中的解释百度英翻中〔查看〕
antiphonal查看 antiphonal 在Google字典中的解释Google英翻中〔查看〕
antiphonal查看 antiphonal 在Yahoo字典中的解释Yahoo英翻中〔查看〕





安装中文字典英文字典查询工具!


中文字典英文字典工具:
选择颜色:
输入中英文单字

































































英文字典中文字典相关资料:


  • 读懂BERT,看这一篇就够了 - 知乎
    BERT (Bidirectional Encoder Representation from Transformers)是2018年10月由Google AI研究院提出的一种预训练模型,该模型在机器阅读理解顶级水平测试 SQuAD1 1 中表现出惊人的成绩: 全部两个衡量指标上全面超越人类,并且在11种不同NLP测试中创出SOTA表现,包括将GLUE基准推高至80
  • 万字长文,带你搞懂什么是BERT模型(非常详细)看这一篇就够了!-CSDN博客
    BERT 语言模型因其对多种语言的广泛预训练而脱颖而出,与其他模型相比,它提供了广泛的语言覆盖范围。 这使得 BERT 对于非英语项目特别有利,因为它提供了跨多种语言的强大上下文表示和语义理解,增强了其在多语言应用中的多功能性。
  • BERT - Hugging Face
    BERT 是一个在无标签的文本数据上预训练的双向 transformer,用于预测句子中被掩码的(masked) token,以及预测一个句子是否跟随在另一个句子之后。其主要思想是,在预训练过程中,通过随机掩码一些 token,让模型利用左右上下文的信息预测它们,从而获得更全面深入的理解。此外,BERT 具有很强的
  • BERT 系列模型 | 菜鸟教程
    BERT (Bidirectional Encoder Representations from Transformers)是2018年由Google提出的革命性自然语言处理模型,它彻底改变了NLP领域的研究和应用范式。
  • BERT - 维基百科,自由的百科全书
    基于变换器的双向编码器表示技术 (英语: Bidirectional Encoder Representations from Transformers, BERT)是用于 自然语言处理 (NLP)的预训练技术,由 Google 提出。 [1][2] 2018年,雅各布·德夫林和同事创建并发布了BERT。 Google正在利用BERT来更好地理解用户搜索语句的语义。
  • BERT模型是什么?深度解析Google双向编码器原理与应用指南
    二、BERT架构深度解析:Transformer的双向革命 BERT的架构设计体现了深度学习在自然语言处理领域的最佳实践。 整个模型由多层Transformer编码器堆叠而成,每一层都包含两个核心组件:多头自注意力机制和前馈神经网络。 2 1 BERT整体架构流程 输入文本序列
  • BERT模型基本原理及实现示例 - 归去_来兮 - 博客园
    BERT(Bidirectional Encoder Representations from Transformers)是Google在2018年提出的预训练语言模型,其核心思想是通过双向Transformer结构捕捉上下文信息,为下游NLP任务提供通用的语义表示。
  • 【万字详解】BERT模型总体架构与输入形式、预训练任务、应用方法 - 知乎
    BERT(Bidirectional Encoder Representations from Transformers)是一种基于Transformer的深度学习模型,一经推出便横扫了多个NLP数据集的SOTA(最好结果)。
  • BERT - 維基百科,自由的百科全書
    基於變換器的雙向編碼器表示技術 (英語: Bidirectional Encoder Representations from Transformers, BERT)是用於 自然語言處理 (NLP)的預訓練技術,由 Google 提出。 [1][2] 2018年,雅各布·德夫林和同事建立並發布了BERT。 Google正在利用BERT來更好地理解用戶搜尋陳述式的語意。
  • 深度学习自然语言处理(NLP)模型BERT:从理论到Pytorch实战 - CSDN博客
    本文围绕深度学习自然语言处理模型BERT展开,先介绍传统NLP技术,再阐述BERT架构、核心特点,包括注意力机制、预训练和微调等。





中文字典-英文字典  2005-2009