英文字典中文字典


英文字典中文字典51ZiDian.com



中文字典辞典   英文字典 a   b   c   d   e   f   g   h   i   j   k   l   m   n   o   p   q   r   s   t   u   v   w   x   y   z       







请输入英文单字,中文词皆可:

impolite    音标拼音: [ɪmpəl,ɑɪt]
a. 无礼的,粗鲁的

无礼的,粗鲁的

impolite
adj 1: not polite [ant: {polite}]

Impolite \Im`po*lite"\, a. [L. impolitus unpolishied, pref. im-
not politus, p. p. of polire to polish, refine. See
{Polite}.]
Not polite; not of polished manners; wanting in good manners;
discourteous; uncivil; rude. -- {Im`po*lite"ly}, adv. --
{Im`po*lite"ness}, n.
[1913 Webster]


请选择你想看的字典辞典:
单词字典翻译
Impolite查看 Impolite 在百度字典中的解释百度英翻中〔查看〕
Impolite查看 Impolite 在Google字典中的解释Google英翻中〔查看〕
Impolite查看 Impolite 在Yahoo字典中的解释Yahoo英翻中〔查看〕





安装中文字典英文字典查询工具!


中文字典英文字典工具:
选择颜色:
输入中英文单字

































































英文字典中文字典相关资料:


  • 深度学习模型训练的时候,一般把epoch设置多大? - 知乎
    通常情况下,开始时可以设置较小的 epoch 数量,例如 10 或 50,然后逐步增加 epoch 数量,直到模型性能不再提高。 一、epoch 数量选择的影响因素 1 数据集大小和复杂性 epoch 数量与训练数据量之间存在一定的关系。
  • 深度学习模型训练的时候,一般把epoch设置多大? - 知乎
    根本没有这种道理,完全靠经验瞎蒙。同一个模型和参数,不同的数据集,收敛速度和指标数值差异还挺大。倒不如设置一个跑不完的epoch,时不时跑下验证,直到指标能让自己满意为止。
  • 深度学习中Epoch、Batch以及Batch size的设定 - 知乎
    Epoch(时期):当一个完整的数据集通过了神经网络一次并且返回了一次,这个过程称为一次>epoch。 (也就是说,所有训练样本在神经网络中都 进行了一次正向传播 和一次反向传播 ) 再通俗一点,一个Epoch就是将…
  • 26【微调参数】一篇搞懂epoch是什么?怎么设置?有什么用? - 知乎
    所以!设置“epoch”,就像是你要让这个机器重复学习多少轮。简单吧~ 如果你只让他学一两轮,可能他还没来得及掌握所有的知识。 如果你让他学很多轮,可能会浪费时间在重复学习已经会的内容上了! 所以,选择合适的“epoch”数量很重要! 你可以设置不同
  • 快速搞定 epoch, batch, iteration - 知乎 - 知乎专栏
    epoch指的是次数,epoch = 10 指的是把整个数据集丢进神经网络训练10次。 batch size 指的是数据的个数,batch size = 10 指的是每次扔进神经网络训练的数据是10个。 iteration同样指的是次数,iteration = 10 指的是把整个数据集分成10次扔进神经网络。
  • 深度学习epoch 设置? - 知乎
    在深度学习中,一次 epoch 意味着对所有训练样本进行一次完整的训练过程。将epoch设置为大于1的数字,是因为训练一次可能不足以让模型完全收敛,即在训练后模型的参数仍然不能很好地拟合训练数据。
  • 在机器学习中,如何选择合适的 epoch 数量? - 知乎
    一个 epoch 指代所有的数据送入网络中完成一次前向计算及 反向传播 的过程。 由于一个epoch常常太大,计算机无法负荷,我们会将它分成几个较小的batches。那么,为什么我们需要多个epoch呢?
  • batch_size和epoch的选取 - 知乎 - 知乎专栏
    batch_size是一次训练所选取的样本数,它的大小会影响模型的优化程度和速度。在一次迭代,batch_size 的数据会读入 GPU 的显存当中,在这里也体现了显卡配置的重要性(如果GPU显存大,则该值可设置大些,反之亦然)。
  • 深度学习中的超参数调节(learning rate、epochs、batch-size. . . ) - 知乎
    学习速率的设置第一次可以设置大一点的学习率加快收敛,后续慢慢调整;也可以采用动态变化学习速率的方式(比如,每一轮乘以一个衰减系数或者根据损失的变化动态调整学习速率)。
  • Epoch、Batch_size的含义及设置 - 知乎 - 知乎专栏
    Epoch (周期): 表示整个训练数据集被 神经网络 完整地通过了一次。在一个 Epoch 内,神经网络会看到训练数据集中的所有样本一次,进行 前向传播 、 反向传播 ,并更新权重。 Batch Size (批处理大小): 指的是深度学习模型在一次迭代中处理的样本数量。





中文字典-英文字典  2005-2009