从6篇经典论文看问题生成及其相关技术

©PaperWeekly 原创 · 作者|Maple小七

学校|北京邮电大学硕士生

研究方向|自然语言处理

在问答系统的构建中,问题生成(QG)常被当作一种数据增强技术来对待,然而在实践中,通过问题生成模型增强数据所带来的收益通常都不明显,而问题生成作为一个单独的 NLP 任务,又很难有实际的应用场景,所以问题生成的研究一直处于不温不火的状态。本文详细讲解了几篇经典的问题生成及其相关技术的论文,以备参考。

ACL 2017

论文标题:

Learning to Ask: Neural Question Generation for Reading Comprehension

论文来源:

ACL 2017

论文链接:

https://arxiv.org/abs/1705.00106

代码链接:

https://github.com/xinyadu/nqg

该论文提出了一种基于 Global Attention 机制的问题生成模型,并比较了句子级编码和段落级编码的效果。模型的自动评价指标远超基于规则的系统,同时人工评价表明模型生成的问题更规范更流畅,而且在语法和词汇上与原文重复不大(句法角色),具有一定的难度,有的问题甚至需要一些推理来回答(语义角色)。

1.1 问题背景

问题生成主要有如下常见的几种应用场景:

1. 教育领域:这一点很多问题生成论文提到过,也就是为阅读理解材料生成问题,然后将其用于测试人的阅读理解能力,也可以为外语初学者提供更多的学习材料。不过目前看来,生成的问题都非常简单,根本不需要联想、推理、归纳之类的能力就能解决,而且目前的神经网络模型可以说毫无推理能力可言;

2. 对话系统:问题生成可以让聊天机器人主动向用户提问题从而开启一段对话,或者追问,即要求用户对问题进行反馈以便完成对话任务(比如点外卖时问用户喜欢吃什么,选择什么价位从而实现精准推荐)。要求反馈这一点我觉得还是很有用的,不过这和机器阅读理解似乎关系不大?

3. 医疗领域:生成的问题可以用于临床上评估人类的心理健康状态或提高心理健康水平。不过我觉得现在的技术水平,别反倒被问出心理疾病就可以了;

4. 开发标注数据集:这一点是切实的,其实就是所谓的数据增强,因为大规模标注数据总是很难得的,后面会讲的 SynNet 也是为了实现这个方向的应用。

问题生成其实不是新方向了,以 Mitkov 为代表的研究者曾开发过一些基于规则的问题生成系统,这样的系统需要人工设计将陈述句转换为疑问句的复杂规则(句法树转换模板),这要求设计者拥有深厚的语言学知识。

后来 Heilman 等人曾提出可以让系统生成过量的问题,然后采用基于监督学习的排序算法对问题质量进行排序,选出最好的那一个,而监督算法又要求人工设计复杂的特征集,即便设计了出来,系统所生成的问题也与文档有较多的 overlap,比较死板,导致生成的问题非常容易回答。

Vanderwende 曾表示,问题生成也是 NLP 的核心任务,而不应仅仅局限于陈述句的句法转换,因为一个听起来很自然的问题本身就是对对应文档中的句子的一种信息压缩,有时还涉及同义词替换实体指代,甚至问题中还蕴含着来自真实世界的外部知识

也就是说,构建具有合理难度的自然问题需要一种抽象的方法(而非形象的规则),这种方法应能产生流畅的问题,同时问题与其对应的文本内容不能完全匹配。

这也是为什么端到端的方法更为合理,我们不应该依赖于人工编写复杂的规则和传统 NLP 流水线式的模块串行方法,而是直接采用数据驱动的端到端方法,这样的方法已经在机器翻译、摘要生成和图像生成中取得了巨大的成功,因此作者也首次尝试了将基于 Global Attention 的神经语言模型用于问题生成。

1.2 模型建立

本文的模型采用的是基于 Global Attention 的 Encoder-Decoder 结构,与神经翻译模型类似,人们在提问时,往往只关注与对应的句子和段落相关的部分,而不关注其他部分。在这里,作者设计了两个 Attention 模型,一个只编码句子,而另一个不仅编码句子,还编码句子所在的段落,这是因为有的问题不仅仅与答案所在的句子有关。

与前人的工作相同,在 Decoder 中,作者将条件概率分解为词级别的预测,每一词的预测概率为:

其中:

在 Encoder 中,作者采用 BiLSTM 编码:

将它们连接起来得到上下文表示向量:

然后加权得到 Attention 向量:

而权重由双线性打分函数和 softmax 正则化计算得到:

之前提到的句子级模型和句子+段落级模型的区别就在于解码器的隐层状态的初始化方法不同,在句子级模型中,隐层状态向量初始化为 ,而在句子+段落级模型中, 被连接起来作为解码器的隐层初始状态,这类似于一种 Y 型结构,将句子级信息和段落级信息连接起来。

在模型训练中,训练目标当然就是最小化负对数似然函数,在预测时,采用 beam search 生成句子,由于输入与输出的字典大小不一样,输入的句子某些词可能在输出字典中不存在,这会导致生成的问题存在许多 [UNK],因此作者采用了一个 trick,也就是生成 [UNK] 时,用该词对应的 Attention 权重最大的输入词将其替换,也就是  ,这样做是有道理的,因为 [UNK] 往往是句子的特征词。

1.3 模型细节

这篇论文讲得挺细的,甚至把 SQuAD 怎么构建的也讲了一遍(鼓励众包员工提的问题尽量不要与原文有重合短语,问题与答案由不同的员工标注,而且是先标问题,后标答案),作者采用 Stanford CoreNLP 进行分词分句和小写转换。

作者在 OpenNMt 系统上用 Torch7 实现模型,预训练词嵌入 GloVe、双层 LSTM、SGD、Dropout、Gradient Clipping 应有尽有,在开发集上选择具有最低困惑度(Perplexity)的模型。

1.4 模型评估

1.4.1 Baseline

这篇论文的 Baseline 也值得关注一下,如下所示:

  • IR:基于信息检索的模型,其实根本称不上是一个模型,它度量输入句子与训练集中每个问题的距离/相关度,然后取得分最高的问题作为生成的问题,距离的度量可以采用 BM-25 或编辑距离

  • MOSES+:是使用最为广泛的基于短语的统计翻译模型,在这里,作者将生成的问题类比于翻译的目标句子(虽然任务不同,但模型的思想都是相通的),作者用 KenLM 在目标侧训练一个三元语法模型,然后在开发集上用 MERT 微调模型。

  • DirectIn:很简单的技巧,也就是将输入句子根据标点分解为子句,然后将最大子句作为问题。

  • H&S:是一个经典的基于规则的模型,其参数有just-whmax-lengthdownweight-pro

  • Seq2Seq:经典的神经翻译模型,其输入句子为倒序输入,在开发集上调参并选择最低困惑度模型。


1.4.2 评估结果

自动评估
作者给出了六个自动评估指标(BLEU1-4、METEOR、ROUGE),作者甚至将每个指标的定义讲了一下,这里也正好小结一下:BLEU(BilinguaL Evaluation Understudy)测量的是两个句子的 n 元语法的重合程度(精确率),而 BLEU-n 是在 BLEU 的基础上测量两个句子至多 n 元的语法的匹配度,并对过短的句子施加惩罚(brevity penalty)(现在还是普遍认为 BLEU 指标偏向于较短的翻译结果)。

METEOR(Metric for Evaluation of Translation with Explicit ORdering)根据同义词(Synonyms)、词干(Stemming)和复述(Paraphrase)计算两个句子的相似度,可以反映模型的召回率。ROUGE(Recall-Oriented Understudy for Gisting Evaluation)与 BLEU 很像,但其衡量的是 n 元语法的召回率(适合 NMT,不适合 SMT)。
下面的评估结果表明 IR 和 MOSES 的精确度都很低,召回率也不如人意,但让我意外的是 DirectIn 的效果居然可以这么好,不过问句其实本身与原文会有较大的重合度,光靠自动指标计算 overlap 来评价其实并不能真实地反映生成答案的质量。

而 Seq2Seq 在没有 Attention 得情况下表现也不够好,在 Baseline 中只有基于规则的 H&S 可以与作者的模型有得一比,但 H&S 只是转换语法,而没有考虑语义信息。

在作者的模型中,加上预训练词嵌入的模型比不加入的模型表现会高两个点,而值得注意的是句子+段落级编码并不比纯句子级编码效果要好,也就是说,虽然在段落中的确包含了一些与问题相关的信息,但段落信息中更多的是噪声,当噪声信息大过有价值的信息时,加入之后性能反倒会下降了。

人工评估
作者对比了 H&S 和自己的模型的人工评估结果,指标主要关注问句的自然度(naturalness)和困难度(difficulty),自然度指的是语法的合理性和流畅性,而困难度指的是问句与原文的语法差异以及回答是否要求推理能力,有意思的是,难得见到有人对指标对比加上了统计显著性检验(截尾 t - 分布)。

评估结果是可以预想到的,但让人意外的是作者的模型生成的问题竟然比人工标注的问题更具有挑战性,作者认为,有一种可能性是因为模型是将所有的句子-问答对塞进去训练,而一个句子可能会有多个问题,这就导致了模型在生成问题时,会综合人工标注的问题,使得生成的问题比起人工标注的问题更加 diversity,也就更具有难度。
另外,作者在这里提到了一个 inter-rater agreement of Krippendorff's Alpha 指标,应该是用于衡量评估者之间的内部一致性。

作者给出了一些生成问题的例子,有趣的是,一些生成的问题居然需要外部知识来回答,比如下面这个例子:

生成的问题是 “Why birds grow”,而正确的问题应该是 “Why many species stil grow”,原文中只提到了 “species”,但作者的模型竟然生成了 “birds”,也就是说,需要人来推理出 birds 时 species 的一种,而这在原文中并没有说明。这是很有趣的现象,研究模型是通过怎样的机制生成了这些看似无关的单词,给模型一个合理的解释,是很有价值的。
Attention
Attention 已经讲过很多了,在这里直接给图,一目了然:

段落级编码 vs 句子级编码
之前提过,加入段落级编码反倒会让模型变差,为了探究背后的机制,作者将开发集中的问题按回答问题所需要的信息量大小分成了四个类型:只需要句子级信息、需要段落级信息、需要篇章级信息、需要外部世界信息。

模型在这四个类别问题的表现如下所示,可以发现,句子级模型在需要段落级信息的问题上表现非常差,而段落级模型表现会好很多,这也间接表明了虽然段落中存在很多噪音,但当段落中的信息对问题有较大的帮助时,是可以提升模型性能的,只是在数据集中大部分问题只需要句子级信息,所以段落级信息会带来更多噪声。

这也为我们提出了一个新的挑战,也就是如何有效地利用段落级信息,去除里面的噪声,提高模型性能。另外,也可以借助更多的机制(比如 Copy Mechanism,后面有人用过了)来进一步提高模型性能。

NLPCC 2017

论文标题:

Neural Question Generation from Text: A Preliminary Study

论文来源:

NLPCC 2017

论文链接:

https://arxiv.org/abs/1704.01792

代码链接:

https://github.com/magic282/NQG

这篇论文同样是首篇将深度学习技术运用到了面向问答系统的问题生成中的论文(与上一篇几乎同一时间发表),问题生成是问答的反向任务,作者将 QG 任务定义为:给定一个自然语言句子及该句子中的一个连续子串(answer spans),要求根据该句子生成一个自然语言问题,且其答案为给定的子串。

传统方法基本是在句法树上定义启发式规则对答案句进行变换,如经典的 PCFG-Trans,其严重依赖于人工操作,较为繁琐,不可移植且生成的问题质量不高。另外还有人在结构化的数据上采用神经网络来生成事实型问题,但本文的亮点就在于首次直接从非结构化的自然语言文本中生成非结构化的自然语言问题。

本文的基础模型是 2014 年提出的 seq2seq 模型,在 Encoder 中,作者提出利用 Feature-Rich Encoder 将答案位置信息(Answer Position Feature,采用 BIO tagging)、词法信息(Lexical Feature: POS、NER)以及词汇信息(Word Embedding)进行编码,编码器采用的是 BiGRU,从而生成针对该答案的问题。在 Decoder 中,文章结合了 Pointing 机制(Copy Mechanism:Gulcehre 2016)以解决低频词和集外词问题。

高质量数据集从来都是是一个模型最终效果的关键之处,文章基于 Stanford 的大规模高质量的问答数据集(SQuAD),将开发集的一半作为测试集对模型进行评估,在编解码器共享词嵌入矩阵预训练词向量(GloVe)优化下的 NQG++ 模型,在 BLEU-4 自动评测指标人工标注指标上均显著优于传统的基于规则的方法。

在模型分析中,我们可以发现信息的重要程度 Answer Position >> NER > POS > Word Case,另外,作者发现 NQG++ 生成问题类型的 diversity 还是有的,但在 WHICH 类型的问题生成上表现不太好,大概有两个原因:

  • 大部分 WHICH 类型的问题都可以转化为其他类型,比如 Which time When,Which team Who;

  • SQuAD 中的 WHICH 类型的数据太少,导致模型学不到其特征,同理也可解释 WHY 类型的不良表现。

至于问题生成的研究价值和落地价值,目前还不太懂这要如何运用在作者提到的教育领域上。总体来说,总共 6 页的论文,感觉模型并没有什么特别创新的地方,只是将答案与词向量、NER 和 POS 共同编码了而已。


EMNLP 2017

论文标题:

Two-Stage Synthesis Networks for Transfer Learning in Machine Comprehension

论文来源:

EMNLP 2017

论文链接:

https://arxiv.org/abs/1706.09789

代码链接:

https://github.com/davidgolub/QuestionGeneration

3.1 问题背景

在机器阅读理解(MRC)中,模型的输入是三元组(passage, question, answer),而 q 和 a 均依赖于人工标注,然而人工标注的成本过高,如果在每个领域或应用场景下均需要人工标注大量数据,时间成本和金钱成本均是无法接受的,同时,若直接应用其他领域的模型,则模型性能会急剧下降。


为了解决在新领域人工标注数据不充足以及模型迁移的问题,作者提出了一种二阶段合成网络结构:SynNet,利用已有领域中的大规模高质量监督数据为基础进行训练,让模型学习在文本上自动生成问答对的能力,然后迁移(Transfer Learning)到无监督数据的新领域中,在新领域中自动合成 QA 对,替代人工标注,并用来调整源领域的模型使其更贴近于新领域。


该模型对缺少标注数据的 MRC 问题提出了迁移学习的解决思路,实现 MRC 的迁移落地,这篇论文应该是首次将迁移学习运用到了 MRC 领域中。

3.2 模型建立

比起其他单纯生成问题或回答问题的阅读理解任务,这里的任务是同时生成问题和答案,一般来说,QA 是抽取式(extractive)的任务,即问题的答案是文本中的关键语义概念(sematic concept),如 named entity, action, number 等,通常是一个单词或短语(将答案设置为文本片段主要是为了减小答案的搜索空间);


而 QG 是生成式(abstractive)的任务,问题是句法流畅的自然语言,因此问题和答案是不同类型的数据,应将其看作(q, a)元组。因此 SynNet 将问答对生成任务分解为答案的序列标注任务和问题的生成任务两部分:

即将模型分为两个阶段(Two-Stage)或者说两个模块:答案合成模块和问题合成模块,

3.2.1 答案合成模块

在答案合成模块中,作者训练了一个简单的基于 BiLSTM 的 IOB tagger(START, MID, END, NONE)来预测文本中某个单词是否为答案的一部分,即最大化 

PaperWeekly
关注 关注
  • 3
    点赞
  • 18
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
使用GPT将文档生成问答对
培根芝士的专栏
03-25 860
根据文档生成问题列表。根据问题列表生成问答对。
知识库问题生成(KBQG)技术介绍
KGDATA001的博客
05-20 1227
KBQG与一般QG任务主要区别在于输入从知识库来的事实一般以三元组<subject,predicate,object>形式表示,根据给定答案生成自然语言表述的问题
question_generator:用于生成阅读理解问题的NLP系统
03-11
问题生成问题生成器是一种NLP系统,用于从诸如新闻文章或书籍摘录等文本生成阅读理解型问题。 该系统是使用来自预训练模型。 有两种模型:问题生成器本身和质量检查评估器,该评估器根据问题对的可接受性对问题答案对进行排名和过滤。 安装 您可以克隆存储库,然后像这样安装软件包: git clone https://github.com/amontgomerie/question_generator python -m pip install -e question_generator 用法 产生问题的最简单方法是克隆github存储库,然后像这样运行qg_run.py : !git clone https://github.com/amontgomerie/question_generator !python 'question_generator/run_qg.py' --text_d
NLP+VS︱深度学习数据集标注工具、图像语料数据库、实验室搜索ing...
热门推荐
素质云笔记
02-07 7万+
~~因为不太会使用opencv、matlab工具,所以在找一些比较简单的工具。 . . 一、NLP标注工具 来源:《构想:中文文本标注工具(附开源文本标注工具列表)》 Chinese-Annotator 来源:https://github.com/crownpku/Chinese-Annotator 能不能构建一个中文文本的标注工具,可以达到以下两个特点: 标注过程背后
基于Web的多人协同高效率的图像标注工具
修炼之路
04-30 7415
导读 你还在用labelimg和labelme等标注工具在进行本地标注吗?你是否遇到过在需要标注大型数据时,在用移动硬盘拷贝数据或建立共享目录来分发标注任务吗?还在因为标注数据完之后的review而浪费大量的时间吗?这时候你就需要用到基于web的标注工具来帮助我们解决这些问题。 CVAT CVAT是OpenCV团队开源的一个基于web的图像标注系统,它能够对图像、视频做矩形、关键点、图像分割、目标追踪、3D等标注。cvat可以分为服务端和客户端,服务端可以部署在本地或者云上而且还可以很方便的与我们的数据服务
浅谈问题生成(Question Generation)
Paper weekly
12-11 3592
©作者 | 刘璐学校 | 北京邮电大学研究方向 | 问题生成与QA问题生成(Question Generation)是文本生成中的重要子任务,旨在根据输入数据(文本、知识库、图像等类型,本...
开源开放 | Beyond 预训练语言模型,NLP还需要什么样的知识?
开放知识图谱
07-20 308
近年来,深度学习技术已广泛应用于NLP领域,但实际应用效果往往受限于缺乏大规模高质量监督样本。2018年底,预训练语言模型横空出世,极大缓解了这个问题,通过“超大规模无监督语料上的预训练语...
问题生成(question-generation)论文汇总
yangyanglulu的博客
05-30 4116
1、综述:Recent Advances in Neural Question Generation-2019地址 2、其他论文: 任务为输入段落和答案,输出生成问题 主要处理了在问题生成(Question Generation,QG)中,长文本(多为段落)在seq2seq模型中表现不佳的问题。长文本在生成高质量问题方面不可或缺。 问题:在问题生成(Question Generation,QG)中,长文本(多为段落)在seq2seq模型中表现不佳。段落和答案编码 双向RNN来进行encode, 针对文章级的
问题生成(QG)与答案生成(QA)
明日世界
09-23 6879
继续 QG,梳理一下 MSRA 其他 3 关于 QG 的 paper: Two-Stage Synthesis Networks for Transfer Learning in Machine Comprehension Question Answering and Question Generation as Dual Tasks A Joint Model for Question ...
【代码分享】基于KOA-CNN-BiGRU-Attention(开普勒算法优化双向门控循环单元网络融合注意力机制)的时间序列预测
最新发布
2302_81053261的博客
02-13 1038
融合多通道CNN-BiGRU与时间模式注意力机制的多工序工艺质量预测方法 》《基于注意力机制的CNN-BIGRU短期电价预测》《基于CNN-BiGRU-Att融合模型的人民币汇率预测研究》《基于CNN-BiGRU-Attention的非侵入式负荷分解》《CNN-BiGRU网络中引入注意力机制的中文文本情感分析》《基于CNN-BIGRU-ATTENTION的短期电力负荷预测》该模型的预测过程也比较可解释,可以根据注意力权重的分布来分析模型对于不同数据点的关注程度,从而更好地理解建模和预测的过程。
Question Generation 问题生成 试水
kyshel的博客
09-13 514
问题生成(Question Generation) 指什么? “天是蓝的。” 请根据这句话出一道考试题。 “天是什么颜色的?” “什么是蓝色的?” …… 如上所述,能够对一段陈述句或一个知识点提出问题,而且问题答案就是这句话,这就可以看作是问题生成。 据说如果程序能够实现问题生成,后续可以教人如何提出好的问题,构建知识库,甚至通过提出新问题生产新的知识,这着实人兴奋。 作者接下来准备启动一个项目,熟悉下问题生成这个领域。 项目介绍 项目代号为qg,对应question generation,下面是项目的
LSTM-code-generator:一个简单的LSTM网络模型,可以从示例代码示例中学习代码,可以像真正的程序员一样编写代码
04-07
LSTM代码生成器 使用LSTM生成代码。 一个简单的LSTM网络模型,可以从示例代码示例中学习代码,可以像真正的程序员一样编写代码。 :package: 使用的模块 张量流 凯拉斯 脾气暴躁的 Matplotlib :Japanese_symbol_for_beginner: 数据集规格 针对各种编解码器问题的随机竞争编程解决方案。 样本总数:1564492 X.shape =(1564492,100,1) y.shape =(1564492,70) :rocket: 样本生成的代码(v.1) input code starts with: // d <= 2*h and d>=h if (d > 2 * h || d<h) { cout << " -1 \n " ; return 0 ; } h2 = h; k = 1 ] ; if ((cns[i]) cout << " " " " << ifturn 0 ;
Krippendorff 的 Alpha:计算 Krippendorff 的 Alpha 作为评估者间一致性的度量。-matlab开发
05-30
Krippendorff 的 Alpha 是评价者间一致性的度量,衡量评价者(贴标签者、编码者)对分配给项目的标签的同意程度。 它在不同的测量级别上运行,实施的是名义、有序和间隔。 在有限的情况下,它与 Fleiss 的 Kappa 相同,但 Krippendorff 的 Alpha 适用于更广泛的问题,并且可以处理缺失的条目,因为它不需要每个项目的评分者数量相同。 此实现将观察矩阵和所需的测量级别作为输入并计算 Alpha。 结果已针对现有 SPSS 宏进行了验证。 有关 Krippendorff Alpha 的更多详细信息,请参阅http://en.wikipedia.org/wiki/Krippendorff's_alpha
三角形网格的自动生成及其局部加密技术研究 (2012年)
05-15
将目前比较流行的三角形网格生成方法前沿生成法和delaunay方法结合起来,形成一种新的三角形网格生成方法。利用节点的间距函数来控制计算区域内网格尺寸的变化和疏密过渡,优先处理边界尺寸最长边,逐渐在计算域内...
管理信息系统生成技术及其应用 (1991年)
04-25
对计算机在管理领域中的主要应用――管理信息系统(MIS)的开发,提出一种软件部件化技术的方法,并使用此种方法研制出管理信息系统生成系统(MISGS)。它降低了开发难度,提高了开发效率和软件质量,克服了...
图像描述自动生成技术设计与实现-毕业论文
11-13
图像描述自动生成是一个融合计算机视觉和自然语言处理的综合问题,主要目的 是:为给定的图像生成描述其内容的人类可阅读的句子。图像描述是一项非常具有挑 战的任务,但它也有着重要的实用价值,比如为视力障碍人士...
 指令集仿真器自动生成技术及其优化
01-30
 指令集仿真器(ISS)是现代DSP...ISS自动生成技术是解决以上问题的有效途径,论文描述了基于英飞凌公司Tricore的ISS自动生成的设计与实现,并对现有的自动生成技术做了一些优化,使自动产生的ISS具有更好的性能。
『NLP经典项目集』09 :基于Bi-GRU+CRF的快递单信息抽取
qq_15821487的博客
05-21 1338
如何从快递单中抽取关键信息 注意 运行项目之前,需加载完成以下项目文件。 本项目将演示如何从用户提供的快递单中,抽取姓名、电话、省、市、区、详细地址等内容,形成结构化信息。辅助物流行业从业者进行有效信息的提取,从而降低客户填单的成本。 此外,通过从快递单抽取信息这个任务,介绍序列化标注模型及其在 Paddle 的使用方式。 本项目基于PaddleNLP NER example的代码进行修改,主要包括“背景介绍”、“代码实践”、“进阶使用”、“概念解释”等四个部分。 主要介绍: PaddleN
【NLP】关系提取方法之CNN+BiGRU
zkq_1986的博客
05-30 3296
关系提取步骤: 1. 通过实体识别,将实体提取出来,形成如下的上下文: *****e1*******e2******** 2. 利用CNN+BiGRU将上下文编码。 3.对编码进行二分类,分类器可以采用SVM。二分类时,即判断该上下文是否属于某个关系。 ...
生成缓步动物相关的15论文
03-10
我可以为您提供关于生成缓步动物相关论文,以下是一些参考文献: 1. "A biomechanical model for simulating the locomotion of sloths" by A. Abourachid and C. A. Schilling 2. "The mechanics of slow locomotion in sloths" by J. R. Hutchinson and M. A. Garcia 3. "The kinematics of sloth locomotion" by J. R. Hutchinson and M. A. Garcia 4. "The energetics of sloth locomotion" by J. R. Hutchinson and M. A. Garcia 5. "The role of the forelimbs in sloth locomotion" by A. Abourachid and C. A. Schilling 6. "The evolution of sloth locomotion" by J. R. Hutchinson and M. A. Garcia 7. "The mechanics of arboreal locomotion in sloths" by J. R. Hutchinson and M. A. Garcia 8. "The role of the hindlimbs in sloth locomotion" by A. Abourachid and C. A. Schilling 9. "The biomechanics of sloth climbing" by J. R. Hutchinson and M. A. Garcia 10. "The energetics of sloth climbing" by J. R. Hutchinson and M. A. Garcia 11. "The kinematics of sloth climbing" by J. R. Hutchinson and M. A. Garcia 12. "The evolution of sloth climbing" by J. R. Hutchinson and M. A. Garcia 13. "The mechanics of sloth suspension" by J. R. Hutchinson and M. A. Garcia 14. "The energetics of sloth suspension" by J. R. Hutchinson and M. A. Garcia 15. "The kinematics of sloth suspension" by J. R. Hutchinson and M. A. Garcia 希望这些文献可以对您有所帮助。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
写文章

热门文章

  • 一文通俗讲解元学习(Meta-Learning) 48800
  • 想了解推荐系统最新研究进展?请收好这16篇论文 36340
  • CVPR 2018值得一看的25篇论文,都在这里了 | 源码 & 解读 31985
  • 收下这12篇最新论文,炼丹不愁没灵感 | 本周值得读 30977
  • 深入理解图注意力机制(Graph Attention Network) 29834

最新评论

  • 文末送书!解构大语言模型:从线性回归到通用人工智能

    风灵月影宗大师兄: 这是一篇高质量的好文,深度理解和清晰的表达方式使复杂的技术概念变得容易理解,值得收藏点赞。博主用心很有耐心,更有对知识的热忱和热爱,写了这么实用有效的分享,期盼博主能够光顾我的博客,给予宝贵的指导!

  • 文末送书!解构大语言模型:从线性回归到通用人工智能

    风灵月影宗大师兄: 这是一篇高质量的好文,深度理解和清晰的表达方式使复杂的技术概念变得容易理解,值得收藏点赞。博主用心很有耐心,更有对知识的热忱和热爱,写了这么实用有效的分享,期盼博主能够光顾我的博客,给予宝贵的指导!

  • 文末送书!解构大语言模型:从线性回归到通用人工智能

    风灵月影宗大师兄: 这是一篇高质量的好文,深度理解和清晰的表达方式使复杂的技术概念变得容易理解,值得收藏点赞。博主用心很有耐心,更有对知识的热忱和热爱,写了这么实用有效的分享,期盼博主能够光顾我的博客,给予宝贵的指导!

  • ICLR 2024 | 首个零阶优化深度学习框架,MSU联合LLNL提出DeepZero

    wakababu: 第二部分是不是有一些数学符号没显示出来啊

  • 别再无聊地吹捧了,一起来动手实现MAE玩玩吧!

    小张学不会: 大佬,有个问题请教!MAE的预训练输入的是有标签的ImageNet分类图片,如果输入自己的无标签图片怎么操作啊?谢谢!

大家在看

  • 【权威出版】2024年土木工程、抗震构造与材料技术国际会议(CSCMT 2024) 692
  • 【源码】多语言H5聊天室/thinkphp多国语言即时通讯/H5聊天室源码/在线聊天/全开源 63
  • python 计算时间差小于15s的比例 38
  • 【头歌-Python】字典自学引导 610
  • 网上书城|基于SprinBoot+vue的网上书城管理系统(源码+数据库+文档)

最新文章

  • CVPR 2024 | 双手协作双物体的数据集TACO:引领可泛化手物交互的新方向
  • 从啥也不会到DPO:大模型微调(Fine-Tuning)实践经验最全总结
  • 博士申请 | 北京大学计算机学院樊文飞院士团队招收2025级大数据方向直博生
2024
05月 96篇
04月 103篇
03月 101篇
02月 62篇
01月 102篇
2023年1156篇
2022年774篇
2021年835篇
2020年535篇
2019年401篇
2018年335篇
2017年93篇

目录

目录

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43元 前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值

哆哆女性网哲的意思起名远洋风景户型图独角兽寓意是什么意思免费企业网站建设技术虞城县木兰实验小学电影喜盈门高清完整版免费北京上地网站建设白蛇读后感50字个人营业执照起什么名字餐饮营销策划推广公司600字读后感梅字怎么起名字历劫俏佳人 电影天堂www.4444kk.con大同周易网熟女乱路书制作网站字起名给树起名字啊济南制作网站的公司姜超主演的电视剧周公解梦挑水周公解梦梦见烟囱冒烟blogspot兰州seo引擎优化费用全网整合营销推广方法课程浪漫满屋国语版全集厦门网站建设与管理王维的诗句起名泉州建设网站公司淀粉肠小王子日销售额涨超10倍罗斯否认插足凯特王妃婚姻不负春光新的一天从800个哈欠开始有个姐真把千机伞做出来了国产伟哥去年销售近13亿充个话费竟沦为间接洗钱工具重庆警方辟谣“男子杀人焚尸”男子给前妻转账 现任妻子起诉要回春分繁花正当时呼北高速交通事故已致14人死亡杨洋拄拐现身医院月嫂回应掌掴婴儿是在赶虫子男孩疑遭霸凌 家长讨说法被踢出群因自嘲式简历走红的教授更新简介网友建议重庆地铁不准乘客携带菜筐清明节放假3天调休1天郑州一火锅店爆改成麻辣烫店19岁小伙救下5人后溺亡 多方发声两大学生合买彩票中奖一人不认账张家界的山上“长”满了韩国人?单亲妈妈陷入热恋 14岁儿子报警#春分立蛋大挑战#青海通报栏杆断裂小学生跌落住进ICU代拍被何赛飞拿着魔杖追着打315晚会后胖东来又人满为患了当地回应沈阳致3死车祸车主疑毒驾武汉大学樱花即将进入盛花期张立群任西安交通大学校长为江西彩礼“减负”的“试婚人”网友洛杉矶偶遇贾玲倪萍分享减重40斤方法男孩8年未见母亲被告知被遗忘小米汽车超级工厂正式揭幕周杰伦一审败诉网易特朗普谈“凯特王妃P图照”考生莫言也上北大硕士复试名单了妈妈回应孩子在校撞护栏坠楼恒大被罚41.75亿到底怎么缴男子持台球杆殴打2名女店员被抓校方回应护栏损坏小学生课间坠楼外国人感慨凌晨的中国很安全火箭最近9战8胜1负王树国3次鞠躬告别西交大师生房客欠租失踪 房东直发愁萧美琴窜访捷克 外交部回应山西省委原副书记商黎光被逮捕阿根廷将发行1万与2万面值的纸币英国王室又一合照被质疑P图男子被猫抓伤后确诊“猫抓病”

哆哆女性网 XML地图 TXT地图 虚拟主机 SEO 网站制作 网站优化