一、三维语音动画聊天室的设计与实现(论文文献综述)
张祥裕[1](2020)在《智能协同在三维虚拟实验中的应用》文中提出虚拟仿真实验教学是当今实验教学的重要组成部分,它不仅可以帮助学生提高动手能力和加深对实验知识的理解,同时还能解决学校因实体实验设备不足、场地有限而导致部分学生无法进行真实实验的问题。目前的三维虚拟实验系统多集中于单人实验,基于多人开发的协同实验系统相对较少。现有的协同系统主要有以下的不足,如教师引导学生需要全程参与,学生的想法和遇到的问题得不到有效的交流学习,实验提示不够直观准确,实验习题指导性不强等。为了解决这些问题,本文设计并实现了一个能引导和辅助学生协同学习的智能协同虚拟实验平台。本平台设计的聊天室模块和智能答疑模块实现了聊天内容共享和答疑内容共享等,解决了学习交流问题。平台设计的语音合成模块、智能答疑和协同习题模块解决了需要教师全程参与和实验习题没有有效的指导的问题。各个功能模块介绍如下:(1)聊天室模块包括语音聊天和文字聊天,学生可以交流自己的想法和问题。(2)语音合成模块采用文本转语音(TTS)技术实现习题题目的朗读和习题的智能提示。如果学生在规定的时间内没有作答,则会通过语音的方式进行提示,反之,则不会提示,这样既不用教师全程参与,也能达到类似教师带着学生一起做题的效果。(3)智能答疑模块可以实时地回答学生提出的问题,学生提出的问题和平台给出的答案是实时同步显示的,这样可以促进学生之间的相互学习。该模块还能实时训练问题答案对,这样,实验平台发布使用的时间越长越智能。(4)协同习题模块可以让同组的学生做相同的题目,同时进入下一题或者回退到上一题。平台最后会自动计算学生的习题得分和给出详细的错误信息。(5)为了实现人机协同,平台利用人脸识别技术实现了刷脸登录功能,提高了平台的安全性,为后期采用手势控制而脱离键盘和鼠标做准备。在仿真实验总体设计上,平台分别利用Unity3D的UGUI技术设计虚拟仿真实验的用户界面和UNET网络框架实现仿真实验的实时同步。最后以天平实验为案例实验说明平台的可行性,采用3D屏幕直观展示和邻接矩阵实现动态智能指导,解决了传统实验系统因使用文字提示不够直观准确的问题,同时在案例实验中加入前面描述的五个功能模块。学生使用反馈结果良好,学生的合作意识和学习效果得到了明显的提高,进一步说明平台的有效性和应用价值。
农丽雯[2](2020)在《小学英语教学中利用信息技术创设英语真实学习环境的研究》文中研究表明英语真实学习环境的缺失一直是我国英语教学的“心头病”。但现在,现代信息技术的发展,尤其是现如今我国已步入5G时代,为创设真实的英语学习环境提供诸多可能。但是,在英语教学中,尤其是小学英语教学,如何应用信息技术最大限度地创设英语真实学习环境?应用信息技术创设英语真实学习环境有哪些途径和策略?这些问题需要开展深入地研究。本文试图以“小学英语教学中利用信息技术创设英语真实学习环境”为主题,探析以下关键性问题:(1)真实英语学习环境的内涵与意义;(2)小学英语教学中利用信息技术创设英语真实学习环境的价值和现状;(3)利用信息技术创设英语真实学习环境的途径与策略;(4)促进教师应用信息技术创设英语真实学习环境的保障策略。围绕着这些问题,本文的内容结构由如下几个部分构成:绪论:阐释研究问题和价值。第一,从“我国小学生英语学习面临的困境”和“小学英语教学发展的趋势”为出发点,阐释“小学英语教学中利用信息技术创设英语真实学习环境”的必要性;第二,从“信息技术与英语学习的关系研究”和“利用信息技术创设英语真实学习环境”两个方面梳理现有的文献,以此发现“小学英语教学中利用信息技术创设英语真实学习环境”的理论和实践价值。第一章:阐释真实英语学习环境的含义与意义。首先,本文沿用杜威关于“环境”的界定框架,结合前人关于语言学习环境的界定,提出语言学习环境的含义。其次,把语言学习环境分为母语学习环境和非母语学习环境,并通过对两大学习环境的比较,认为真实英语学习环境是一种类似于母语的学习环境。第二章:阐述小学英语教学中利用信息技术创设英语真实学习环境的价值和实践现状。本文以W市三所公立小学的英语骨干教师和第八届全国小学英语优质课大赛的30节课作为研究对象。通过调查发现,利用信息技术创设英语真实学习环境的价值,问题及其原因。第三章:总结利用信息技术创设英语真实学习环境的基本途径与策略。通过实证调查,归纳利用信息技术创设英语真实学习环境的基本途径与策略,并结合教学案例阐释不同的途径和策略。第四章:提出促进教师应用信息技术创设英语真实学习环境的保障策略。通过实证调查,并针对小学英语教学中利用信息技术创设英语真实学习环境的主要问题,结合利用信息技术创设英语真实学习环境的途径与策略,提出保障策略。
彭恒[3](2019)在《3D虚拟动画即时通信系统的设计与实现》文中提出目前,在即时通信方面的国内外研究都取得了巨大的进步,人与人之间的交流也越来越方便。同时,用户开始希望接触一些更加新颖有趣的体验,比如采用3D虚拟动画取代真实人脸来进行实时通信,3D虚拟动画模型通过用户的表情来驱动。本课题将基于深度学习的人脸关键点识别定位技术、虚拟现实技术与即时通信相结合,将人机交互与视频聊天相结合,设计实现一个互动性强的即时通信系统。本课题采用XMPP+openfire方式实现即时通信系统,使用起来更加方便,拓展性更强。客户端主要工作是实现XMPP协议并利用XMPP协议将数据传输给服务端,并接收来自服务端的数据。Openfire则由服务端来搭建使用。针对当前主流人脸关键点定位模型对复杂环境的鲁棒性较差的问题,本课题采用基于深度学习的方法完成人脸关键点定位模型的设计与实现,通过数据预处理、模型设计、模型训练,实现能定位出68个人脸关键点的鲁棒性较高的模型并完成了对该模型向移动端的迁移工作。当前视频通信往往存在延时、卡顿等问题,因此本课题以人脸关键点数据取代视频流数据进行传输,减轻网络的压力。本课题还采用语音编解码、降噪、回声消除等处理来解决语音传输中的噪声干扰、回声干扰等问题。本文还介绍了3D虚拟模型的制作、导入和加载,同时还以个别人脸关键点为例讲解了如何使用人脸关键点关联驱动3D动画模型,如何使驱动更加平滑自然等等。本文首先介绍了课题的概要设计,其次介绍了服务端以及客户端中各个模块的详细设计与实现方案。并对服务端和客户端的相关部署进行了介绍,还对课题中的各个模块或研究内容进行了相应的功能测试和分析。
薛衍琛[4](2019)在《游戏社区App的UI设计研究 ——以《掌上英雄联盟》为例》文中研究说明中国互联网的迅速发展为网络游戏市场带来了庞大的用户数量,随着我国步入移动互联网时代,用户不仅仅满足于游戏娱乐性的需求,更多的是日益增长的社交需求。如今,在移动端应用商店中出现了越来越多基于“游戏+社交”模式的游戏社区App。游戏社区App是线下游戏用户的聚集地,用户可以在这里尽情享受游戏辅助类的各项功能,还可以通过App中构建的虚拟社区,进行社交活动。目前,国内外关于游戏社区App的UI设计研究相对比较缺乏,这是一个新兴的移动应用类型,如何在设计中提升产品的用户体验,满足用户对产品归属感、游戏化、情感化的需求是本课题的研究重点。本课题一共分为八个部分。第一章绪论部分,介绍课题研究背景,叙述了研究意义与目的,分析了国内外研究现状,提出了课题创新点,说明了研究内容与方法。第二章对游戏社区的定义进行详细说明,分析游戏社区与现实社区、虚拟社区和垂直社区之间的关系。第三章分别介绍了《英雄联盟》游戏与《掌上英雄联盟》App,并详细分析了《掌上英雄联盟》App的功能结构。第四章阐述了UI设计的相关理论,为本课题研究提供了坚实的理论基础。第五章具体分析了《掌上英雄联盟》App的UI设计,并总结了其设计特点。第六章运用了比较研究法,对目前市场上有的竞品APP进行UI设计对比研究,分析它们UI设计的优势与不足。第七章通过之前对课题的研究,总结出游戏社区App的UI设计方法与未来设计趋势。最后,第八章通过将理论结合实践,创作一套游戏社区App的UI,来实践验证本次课题。
梁晓昀[5](2016)在《语音驱动三维唇形动画算法研究》文中研究说明语音驱动三维唇形动画算法属于语音信号处理与三维动画技术交叉范畴,可应用于各种需要语音与唇形同步的三维动画领域,如三维动画电影或视频、3D游戏、虚拟主播、教学视频等。目前国内外关于语音驱动唇形动画的研究较少,进行唇形动画制作时多以人工制作为主,费时费力,因此研究语音驱动三维唇形动画算法具有一定的社会意义与应用价值。在语音驱动三维唇形动画算法中,语音到唇形的映射直接影响到唇形动画的真实感。在现有的语音驱动唇形动画算法中,主要存在以下难点和问题:(1)不同语言间音素的发音规律有所不同,难以与唇形形成统一的映射关系;(2)使用BP神经网络进行语音特征参数到唇形的映射,通常速度和精度高度受限于训练样本数量和网络结构;(3)三维人脸模型的格式多种多样,没有统一的唇形动画标准,通用性存在不足。本文针对上述问题,在现有的语音驱动唇形动画算法基础上,做了如下改进工作:首先,分析了汉语普通话和英语的发音规律,尝试用国际音标将两种语言的发音规律统一起来,并以此为依据录制了训练语音库。其次,尝试适用高斯混合模型算法和基于有向无环图的支持向量机多分类算法(DAG-SVM)代替神经网络进行音素分类,并对DAG-SVM进行了改进。最后,利用DirectX中的三维网格渐变动画技术实现了通用性强且具有真实感的三维人脸唇形动画,并与分类算法相结合,编写了图形界面。实验结果表明本文提出的算法性能较好,能达到预期要求。
杨宏[6](2013)在《汉语发音的唇形可视化处理方法研究》文中研究表明随着科技的发展,人们对电子产品智能化的要求越来越高,人类希望与计算机的交流更具人性化。在虚拟世界中,真实的再现人进行语言交流时候的面部尤其是唇部的动作成为一个重要的研究课题。无论是在游戏娱乐还是在远程通信等虚拟交流中,人脸动画技术的应用极大地方便了人们的交流。汉语发音的可视化需对人脸模型进行驱动,以产生与唇形同步的效果。本文以唇形可视化工具为基础,用文本作为驱动源,研究了汉语发音的唇形可视化处理方法。本文主要工作有以下几个方面:第一,在对汉语发音特点研究的基础上提出了中文视位划分的方法,依据音素将汉语发音过程分为15个视位,为唇形动画的实现提供了基础;第二,对输入文本进行了分析,从中提取了语音、拼音序列和时间等控制信息,研究了中文视位的时长分配,并提出了汉语发音唇形可视化的同步方法;第三,本文在人脸图像形变方法的基础上,抽取出预先录制视频中的视位样本结合光流法实现了二维人脸唇形动画的建模;其次基于Waters肌肉模型的基础上,提出了一种新的由参数控制的三维唇区肌肉模型,实现了三维人脸唇形动画的建模,在针对特定人的唇形动画建模上取得了较好的结果;第四,本文提出了基于BP神经网络的唇形动画合成方法,建立了依据汉语音素与视位之间的映射关系的BP神经网络模型进行学习训练,得到了非特定人的汉语发音的唇形同步动画。实验结果证明,本文所提的算法是有效的,能实现真实、平滑的汉语发音的唇形动画。
毕永新[7](2012)在《基于综合加权算法的汉语语音同步三维口型动画研究》文中认为近年来,随着多媒体技术和人机交互技术的快速发展,人们越来越希望能够跟计算机进行自然流畅的交流。人类面部在交流过程中传递着大部分的沟通信息,如心情、精神状态等。因此,人脸表情动画的研究在近年的计算机动画研究中受到了广泛的关注,而口型动画是人脸表情动画中非常关键的一部分。本文主要工作是基于MPEG-4标准的面部动作编码对人脸口部区域进行提取编码,并针对汉语发音特点进行发音口型分类,并以此基本口型分类应用综合加权算法驱动汉语发音同步的口型动画。本论文基于MPEG-4标准和中文语言学理论,以SAPI5.0提供的文本语音合成(TTS)引擎、OGRE三维虚拟仿真引擎作为主要的开发工具,实现了一个基于综合加权算法的汉语语音同步的动画系统。该系统主要由三部分组成:文本分析系统;语音合成系统;语音与口型动画同步系统。系统的执行流程是:首先,文本分析系统针对输入的汉语文本进行分析,将汉字拆分为不同的汉语可视化音素,并将这些因素发送到语音合成系统合成为基本的可视化音素流;其次,基于MPEG-4标准建立具有真实感的参数人脸模型,使用可视化音素动画帧参数驱动模型的形变,从而实现人脸口型动画;最后将合成的汉语语音与人脸口型动画同步,实现较为逼真的人脸口型动画。从而有效的解决汉语语音发音与口型动画的同步问题。由于本系统主要是针对汉语发音口型建立的动画模型,在动画驱动过程中主要研究了人脸口部区域的动画变化,并没有考虑到整个的人脸动画的驱动,如表情动画,舌头动画等。这将是论文进一步研究的研究点。本文提出的口型动画方案具有很广泛的应用前景,可以应用在服务行业中的虚拟服务员、低频带的网络通讯和视频会议、电影、游戏和广告中的角色模拟等许多领域,增强多媒体虚拟现实的真实感。另外,本研究可以很好的推动可视化的语音动画合成的发展。
王倩[8](2010)在《虚拟“双簧”:三维人脸的唇动合成和表情合成》文中指出三维人脸重建和人脸动画合成画是当前计算机图形学、计算机视觉和图像处理领域中一个热点研究课题,在视频会议、影视制作、通讯等方面有着广泛的应用,具有很大的应用价值和商业价值。本文提出了一个人脸唇动和表情动画合成系统,详细介绍了构造该系统涉及的人脸检测,人脸建模,特征选择,特征提取,表情动画等方面的技术。本文将在三维人脸重建的基础上,合成人脸动画,包括表情合成和嘴唇动画的合成。本文的动画合成是基于CANDIDE-3面部模型基础上的。为准确构建模型,提出基于Haar特征和AdaBoost算法进行人脸和眼睛区域监测方法,然后通过灰度投影提取眼睛特征,获取CANDIDE-3模型重建的参数。并通过侧面人脸图片获得模型深度数据,从而构建三维人脸模型。为完成三维人脸的唇动合成,需提取唇动特征点的运动数据,这项工作在语料库CAVDatabaseⅡ中完成。本文选取唇部的左右嘴角,上下嘴唇边界点特征点提取运动数据。在此项工作中,本文提出了基于水平集的轮廓提取方法提取运动特征数据,取得良好的效果。本文利用MPEG-4动画标准,在三维模型和唇动数据的基础上,分别对真实感三维人脸和二维卡通头像进行了唇动合成。并利用MPEG-4模型,建立了一个三层结构的动画模型框架,实现了定义的16种AUV和6种基本表情,并最终实现表情和唇动的叠加动画。最后,给出了系统整体流程框图、系统界面和对真实感三维人脸和二维卡通头像的最终动画合成效果。
倪奎[9](2009)在《人脸器官拼接融合及其在人脸动画中的应用》文中研究表明人脸动画是广泛应用于计算机动画行业、游戏行业、远程会议、代理和化身等许多领域,是近几年来国内外研究的热点。其中,基于单幅图像的人脸动画的研究近年来引起了许多研究者的关注。基于单幅图像的人脸动画,对给定的一幅图像进行几何位置上的变换,能产生一些有趣的视觉效果,在影视娱乐、广告设计中常用来产生特技。基于单幅图像的人脸动画由于是在真实人脸图片的基础上做图像变形而产生,所以具有较高的真实感。本文提出并实现的一种基于单幅图像的人脸动画生成系统,在MPEG-4人脸动画标准的基础上,采用了肤色模型等人脸特征点定位技术和Mesh-Warping的图像变形方法生成人脸动画,在口腔/眼球的处理上采用了图像拼接和融合方法,使得生成的人脸动画在保证实时性的同时获得了较为逼真的动画效果,本文主要内容包括:1)调研并总结了人脸动画中的MPEG-4人脸动画标准、人脸特征点定位、图像变形和图像拼接融合技术,分析对比了这些技术的优缺点。2)实现了一个具有较高真实感和实时性的基于单张人脸图像的人脸动画生成系统。将MPEG-4中的人脸动画标准简化后应用到基于单张人脸图像的2D人脸动画生成中。可对人脸进行自动/手动定位。选用了Mesh-Warping算法对图像进行变形,既保持了较高真实感,又能满足系统的实时性要求。本文的主要创新有:1)在Mesh-Warping变形算法中,根据人脸器官运动的特殊性,在构造变形样条时,提出了整体样条和局部样条结合,横向样条和纵向样条分离的方法。在保持图像变形效果的同时,尽可能的减少了运算时间。2)提出了在极坐标上基于样条插值的人脸器官拼接算法。该算法可以较快的完成人脸口腔/眼睛器官样本图像与人脸图像的拼接和融合,使动画中出现张嘴效果时,能看较为清楚较为自然地看到舌头和牙齿等原图没有的器官。并且算法具有灵活性,通过选用不同的样条,可以在变形效果和计算时间之间寻找符合用户要求的折中点。3)通过该拼接融合算法,能将样本图像上的眼睛移植到原图像上,以满足某些特殊的动画要求,并且移植后的眼睛在眨眼时能保持形状不变,还可以做出像对眼这样的眼球运动的动画。
梁琨[10](2008)在《基于X3D规范的网络探究式学习平台构建研究》文中研究表明20世纪末,信息技术的应用促进了教育模式的变革,在信息技术强有力的支持下,现代远程教育已经由教育的边缘模式,发展成为教育的主流模式。各具功能的网络学习平台应运而生,这些学习平台主要是利用多媒体展现教学内容,受到信息容量和网络带宽的限制,缺乏交互性。虚拟现实技术以其良好的三维性、灵活的交互性以及对硬件资源要求的简易性等优点备受网络教育的亲睐,成为实现网络探究式学习的又一重要媒体技术。教育领域中的教育模式和教学方法也会随着虚拟现实技术的应用进行一番变革,随之对虚拟现实的普及也会起到促进作用,形成良性循环。虚拟现实技术在教育中的应用,一方面可以使学习者从逼真的虚拟假想空间中获取真实世界中得不到或难以得到的经验和感受,另一方面也使教师等教育工作者逐渐养成用数字时代的思维方式去教育学生的行为方式与习惯。由于X3D技术具有超新的特性和强大的功能,在虚拟现实领域无疑具有极大的潜力。随着X3D成为网络3D的新标准,并不断的完善,构建基于X3D的现代远程教育平台已经成为重要课题。本文就力图实现基于X3D技术和ASP.NET技术的网络探究式学习平台。本文阐述了现代教育技术与虚拟现实技术的关系,探讨了虚拟现实技术与学习理论的相互影响,为后面基于X3D规范的网络探究式学习平台奠定理论基础;接着介绍X3D的发展历程、特性、组成和核心技术。由于平台的核心是虚拟实验,因此对基于虚拟实验的建模技术进行了研究,对X3D的动画技术、音频技术及交互技术进行了研究,分析了相关技术在设计虚拟实验的应用方法。提出了基于X3D规范的网络探究式学习平台模型,并对各个模块的功能进行了详细分析,提出了相关功能的具体实现方法。
二、三维语音动画聊天室的设计与实现(论文开题报告)
(1)论文研究背景及目的
此处内容要求:
首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。
写法范例:
本文主要提出一款精简64位RISC处理器存储管理单元结构并详细分析其设计过程。在该MMU结构中,TLB采用叁个分离的TLB,TLB采用基于内容查找的相联存储器并行查找,支持粗粒度为64KB和细粒度为4KB两种页面大小,采用多级分层页表结构映射地址空间,并详细论述了四级页表转换过程,TLB结构组织等。该MMU结构将作为该处理器存储系统实现的一个重要组成部分。
(2)本文研究方法
调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。
观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。
实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。
文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。
实证研究法:依据现有的科学理论和实践的需要提出设计。
定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。
定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。
跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。
功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。
模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。
三、三维语音动画聊天室的设计与实现(论文提纲范文)
(1)智能协同在三维虚拟实验中的应用(论文提纲范文)
摘要 |
Abstract |
第一章 绪论 |
1.1 课题的研究背景及意义 |
1.2 国内外研究现状 |
1.2.1 国内研究现状 |
1.2.2 国外研究现状 |
1.3 课题研究的主要内容 |
1.4 论文的组织结构 |
第二章 相关技术基础 |
2.1 协同算法的技术基础 |
2.2 虚拟实验技术 |
2.2.1 VR技术 |
2.2.2 Unity3D的UNET技术 |
2.3 C#与Python数据交互 |
2.4 本章小结 |
第三章 智能协同方案设计 |
3.1 需求分析 |
3.2 设计目标 |
3.3 功能设计 |
3.4 本章小结 |
第四章 智能协同模块实现 |
4.1 刷脸登陆模块实现 |
4.1.1 人脸识别服务端的实现 |
4.1.2 WCF服务端的实现 |
4.1.3 人脸识别客户端的实现 |
4.2 语音聊天功能的实现 |
4.2.1 语音基础模型 |
4.2.2 语音高级模型 |
4.2.3 实现流程 |
4.3 文字聊天功能实现 |
4.4 语音合成模块实现 |
4.5 智能答疑模块实现 |
4.5.1 Chatterbot对话引擎的设计与实现 |
4.5.2 WCF服务端的设计与实现 |
4.5.3 客户端答疑模块的实现 |
4.5.4 问题答案对训练模块的实现 |
4.6 协同习题模块实现 |
4.6.1 出题模块的实现 |
4.6.2 协同习题加载和练习模块的实现 |
4.7 本章小结 |
第五章 以天平实验为例的应用实例 |
5.1 天平实验功能模块结构 |
5.2 虚拟实验环境设计 |
5.2.1 3D智能提示 |
5.2.2 实验实施结果展示 |
5.3 本章小结 |
总结与展望 |
总结 |
展望 |
参考文献 |
攻读学位期间发表的论文 |
致谢 |
(2)小学英语教学中利用信息技术创设英语真实学习环境的研究(论文提纲范文)
摘要 |
Abstract |
绪论 |
(一) 研究缘起 |
1. 我国小学生英语学习面临的困境 |
2. 小学英语教学发展的趋势 |
(二) 文献综述 |
1. 有关语言学习环境与英语学习关系的研究 |
2. 关于利用信息技术创设语言学习环境的研究 |
3. 相关研究述评 |
(三) 研究意义与研究思路 |
1. 研究意义 |
2. 研究思路 |
(四) 研究方法 |
1. 文献研究法 |
2. 调查法 |
一、真实语言学习环境的含义与意义 |
(一) 语言学习环境的内涵 |
1. 环境的内涵 |
2. 语言学习环境的内涵 |
(二) 真实语言学习环境的内涵与特征 |
(三) 真实语言学习环境对于外语学习的意义 |
二、运用信息技术创设小学英语真实学习环境的价值与现状 |
(一) 调查设计 |
1. 调查目的 |
2. 调查方法 |
3. 调查对象 |
4. 研究过程 |
(二) 利用信息技术创设英语真实学习环境的价值 |
1. 从信息的呈现方式来看,有利于学习者理解语言知识 |
2. 从学习者的认知方式来看,有利于学习者构建结构化的语言知识 |
3. 从学习情境来看,有利于学习者体悟英语语言中隐含的文化 |
(三) 应用信息技术创设英语真实学习环境的现存问题表现 |
1. 利用信息技术创设英语真实学习环境的方式较为单一 |
2. 利用信息技术创设英语真实学习环境的量比较少 |
3. 创设的英语学习环境多为半真实的英语学习环境 |
(四) 应用信息技术创设英语真实学习环境现存问题的原因分析 |
1. 应用方式较为单一的原因 |
2. 较少创设英语真实学习环境的原因 |
3. 多为半真实英语学习环境的原因 |
三、利用信息技术创设英语真实学习环境的途径与策略 |
(一) 基于不同场所的环境创设 |
1. 课内英语真实学习环境的创设 |
2. 课外英语真实学习环境的创设 |
(二) 基于不同主体的环境创设 |
1. 个体式英语真实学习环境的创设 |
2. 协作式英语真实学习环境的创设 |
(三) 基于不同方式的环境创设 |
1. 直接参与式英语真实学习环境的创设 |
2. 间接感知式英语真实学习环境的创设 |
四、促进教师应用信息技术创设英语真实学习环境的保障策略 |
(一) 优化教师培训 |
1. 加大政策支持 |
2. 提供系统性、针对性、持续性的培训课程 |
3. 建立三方学习共同体 |
(二) 优化信息化教学资源建设 |
1. 加强硬件资源建设 |
2. 优化软件资源建设 |
(三) 减轻教师负担 |
1. 配备足够的教师 |
2. 优化教师评比机制 |
结语 |
参考文献 |
附录 |
致谢 |
(3)3D虚拟动画即时通信系统的设计与实现(论文提纲范文)
摘要 |
ABSTRACT |
第一章 绪论 |
1.1 研究背景及意义 |
1.2 国内外研究现状与分析 |
1.2.1 人脸关键点定位的现状和发展趋势 |
1.2.2 数据传输及声画同步的现状和发展趋势 |
1.2.3 即时通信与虚拟现实结合的现状和发展趋势 |
1.3 研究内容及创新点 |
1.4 论文结构 |
1.5 本章小结 |
第二章 相关技术 |
2.1 XMPP协议 |
2.2 人脸关键点定位 |
2.3 语音编解码 |
2.4 Unity3D |
2.5 模型驱动及BlendShape |
2.6 深度学习 |
2.7 本章小结 |
第三章 需求分析 |
3.1 总体需求与分析 |
3.1.1 系统目的 |
3.1.2 业务功能分析 |
3.2 用户需求与分析 |
3.2.1 用户需求 |
3.2.2 用户用例分析 |
3.3 功能需求 |
3.3.1 注册登录功能 |
3.3.2 好友管理功能 |
3.3.3 即时通信功能 |
3.3.4 虚拟聊天功能 |
3.4 非功能需求 |
3.5 数据分析 |
3.6 本章小结 |
第四章 概要设计 |
4.1 架构设计 |
4.2 人脸关键点定位模型设计 |
4.3 服务端设计 |
4.4 客户端设计 |
4.4.1 基础即时通信模块 |
4.4.2 人脸关键点定位应用模块 |
4.4.3 语音模块 |
4.4.4 动画驱动模块 |
4.5 本章小结 |
第五章 详细设计与实现 |
5.1 整体设计与实现 |
5.2 服务端设计与实现 |
5.3 人脸关键点定位模型设计与实现 |
5.3.1 数据预处理 |
5.3.2 模型构建 |
5.3.3 模型训练 |
5.4 客户端设计与实现 |
5.4.1 基础即时通信模块设计与实现 |
5.4.2 人脸关键点定位应用模块设计与实现 |
5.4.3 语音模块设计与实现 |
5.4.4 动画驱动模块设计与实现 |
5.5 本章小结 |
第六章 环境搭建与测试分析 |
6.1 测试环境搭建 |
6.2 功能测试 |
6.2.1 注册登录功能 |
6.2.2 好友管理功能 |
6.2.3 即时通信功能 |
6.2.4 虚拟聊天功能 |
6.3 非功能测试 |
6.4 测试结果分析与总结 |
6.5 本章小结 |
第七章 总结与展望 |
7.1 总结 |
7.2 展望 |
参考文献 |
致谢 |
(4)游戏社区App的UI设计研究 ——以《掌上英雄联盟》为例(论文提纲范文)
摘要 |
Abstract |
第一章 绪论 |
1.1 研究背景 |
1.1.1 中国互联网发展概述 |
1.1.2 中国网游发展概述 |
1.1.3 App的发展与用户的需求 |
1.2 研究目的与意义 |
1.2.1 研究目的 |
1.2.2 研究意义 |
1.3 国内外研究现状 |
1.3.1 国内研究现状 |
1.3.2 国外研究现状 |
1.4 研究创新点 |
1.5 研究内容与方法 |
第二章 游戏社区App的相关概述 |
2.1 游戏社区App的概述 |
2.1.1 虚拟社区App的定义 |
2.1.2 垂直社区的定义 |
2.1.3 游戏社区App的定义 |
2.2 小结 |
第三章 英雄联盟与掌上英雄联盟App |
3.1 英雄联盟游戏概述 |
3.1.1 英雄联盟游戏介绍 |
3.1.2 英雄联盟与电子竞技 |
3.2 掌上英雄联盟App概述 |
3.2.1 掌上英雄联盟App介绍 |
3.2.2 掌上英雄联盟App功能结构介绍 |
3.2.3 掌上英雄联盟App功能结构图 |
第四章 UI设计的相关理论 |
4.1 UI设计的定义 |
4.2 交互设计相关理论 |
4.2.1 交互设计概论 |
4.2.2 用户体验 |
4.3 界面设计的相关理论 |
4.3.1 界面设计定义 |
4.3.2 界面设计的风格及特点 |
4.4 界面设计的设计原则及规范 |
4.4.1 iOS的五大设计原则 |
4.4.2 iOS的设计规范 |
4.4.3 Android的设计原则 |
4.4.4 Android的设计规范 |
4.5 小结 |
第五章 掌上英雄联盟App的 UI设计分析 |
5.1 掌盟的界面设计分析 |
5.1.1 界面类型 |
5.1.2 图标设计 |
5.1.3 色彩设计 |
5.1.4 卡片式设计 |
5.1.5 动效设计 |
5.2 小结 |
第六章 游戏社区App的竞品UI设计研究与分析 |
6.1 竞品研究与分析 |
6.1.1 竞品概念 |
6.1.2 行业综述 |
6.1.3 App简介与数据 |
6.1.4 竞品功能对比 |
6.2 竞品UI设计对比与研究 |
6.2.1 导航对比研究 |
6.2.2 icon对比研究 |
6.2.3 色彩对比研究 |
6.3 小结 |
第七章 游戏社区App的UI设计方法与发展趋势 |
7.1 游戏社区App的UI设计方法 |
7.2 游戏社区类App的UI设计发展趋势 |
7.2.1 UI设计的发展趋势 |
7.2.2 三大技术与UI设计 |
7.3 小结 |
第八章 游戏社区App的UI设计实践 |
8.1 确立主题 |
8.2 元素提炼 |
8.3 图标设计 |
8.4 特色设计 |
8.5 设计展示 |
8.6 小结 |
结论 |
参考文献 |
附录 |
致谢 |
在读期间公开发表论文(着)及科研情况 |
(5)语音驱动三维唇形动画算法研究(论文提纲范文)
摘要 |
abstract |
第1章 绪论 |
1.1 课题背景与意义 |
1.2 研究现状及发展趋势 |
1.3 论文主要工作及结构安排 |
第2章 语音信号的预处理与特征提取 |
2.1 语音信号分析 |
2.1.1 语音信号的数字化 |
2.1.2 语音信号的声学特性 |
2.2 语音信号的预处理 |
2.2.1 语音信号的预加重 |
2.2.2 语音信号的分帧与加窗 |
2.2.3 基于双门限法的端点检测 |
2.3 语音信号的特征系数提取 |
2.3.1 LPCC特征系数提取 |
2.3.2 MFCC特征系数提取 |
2.4 本章小结 |
第3章 中英双语混合音素语音库 |
3.1 中文语音与英语语音分析 |
3.2 中英双语混合音素语音库的录制 |
3.3 本章小结 |
第4章 音素分类算法分析 |
4.1 BP神经网络 |
4.1.1 BP神经网络简介 |
4.1.2 BP神经网络的训练 |
4.2 高斯混合模型 |
4.2.1 单一高斯概率密度函数的参数估计 |
4.2.2 高斯混合密度函数的参数估计 |
4.3 支持向量机 |
4.3.1 支持向量机简介 |
4.3.2 将支持向量机用于多分类问题 |
4.3.3 改进的DAG-SVM |
4.4 音素分类算法性能实验 |
4.5 本章小结 |
第5章 基于DirectX的人脸动画技术 |
5.1 DirectX中的三维网格模型 |
5.2 DirectX中三维网格模型的绘制 |
5.3 DirectX中三维网格模型的渐变动画 |
5.4 平滑唇形动画序列的产生 |
5.5 本章小结 |
第6章 语音驱动的三维唇形动画 |
结论 |
参考文献 |
攻读学位期间发表论文与研究成果清单 |
致谢 |
(6)汉语发音的唇形可视化处理方法研究(论文提纲范文)
摘要 |
ABSTRACT |
第一章 绪论 |
1.1 可视语音的研究意义 |
1.2 可视语音的研究现状 |
1.2.1 人脸建模的方法 |
1.2.2 可视语音的驱动方式 |
1.3 论文的主要内容和章节安排 |
第二章 唇形可视化处理 |
2.1 唇形可视化的相关工具 |
2.1.1 SAPI语音开发上具包 |
2.1.2 OpenCV开发库 |
2.1.3 OpenGL开发库 |
2.2 人脸图像形变方法 |
2.3 Waters的向量肌肉模型 |
2.4 BP神经网络原理 |
2.5 本章小结 |
第三章 文本分析方法 |
3.1 汉语发音的特点及视位分类 |
3.1.1 汉语发音的特点 |
3.1.2 汉语发音的视位分类 |
3.2 中文视位序列 |
3.2.1 中文视位序列的获取 |
3.2.2 中文视位序列的时长分配 |
3.3 合成语音与视位序列的同步 |
3.4 本章小结 |
第四章 唇形动画的合成 |
4.1 基于图像形变的二维唇形动画 |
4.1.1 视频数据采集 |
4.1.2 视位图像形变 |
4.1.3 基于图像形变的合成结果 |
4.2 基于参数化建模方法 |
4.2.1 模型数据的获取 |
4.2.2 唇形参数建模思想 |
4.2.3 唇区子运动建模 |
4.2.4 实验结果 |
4.3 本章小结 |
第五章 基于BP神经网络的汉语发音唇形动画 |
5.1 语音特征参数的提取 |
5.2 唇形特征与视位关系 |
5.3 建立BP神经网络模型的学习训练 |
5.4 唇形动画的实现 |
5.5 实验结果及分析 |
第六章 总结与展望 |
参考文献 |
攻读硕士学位期间发表的论文目录 |
致谢 |
(7)基于综合加权算法的汉语语音同步三维口型动画研究(论文提纲范文)
摘要 |
Abstract |
第1章 绪论 |
1.1 研究目的及意义 |
1.2 国内外研究现状 |
1.2.1 国外研究现状 |
1.2.2 国内相关研究及发展趋势 |
1.2.3 该领域当前技术存在问题及不足 |
1.3 本文的内容和章节安排 |
1.4 论文的创新点 |
1.5 小结 |
第2章 MPEG-4 人脸动画标准及口型建模 |
2.1 MPEG-4 人脸动画标准 |
2.1.1 脸部特征点 |
2.1.2 脸部动画参数(FAP) |
2.1.3 人脸模型规范 |
2.2 口型建模 |
2.3 口型模型特征的 PCA 分析 |
2.4 小结 |
第3章 开发平台及汉语可视化音素分析 |
3.1 SAPI 5.0 简介 |
3.1.1 文本到语音接口 TTSI(Text-to-Speech Interface) |
3.1.2 语音识别 API |
3.2 面向对象的图形渲染引擎(OGRE) |
3.2.1 OGRE 的组织思想 |
3.2.2 OGRE 中动画的工作原理 |
3.3 自由编辑的图形界面(CEGUI) |
3.4 汉语可视化音素分析 |
3.4.1 汉语可视化音素与口型的映射关系 |
3.4.2 发音口型动画拼音定义方案 |
3.5 小结 |
第4章 语音同步口型动画综合加权算法 |
4.1 声韵加权算法 |
4.2 标号权重向量分析 |
4.3 口型过渡处理 |
4.4 小结 |
第5章 系统实现与实验结果分析 |
5.1 系统实现 |
5.2 实验结果 |
第6章 总结与展望 |
6.1 全文总结 |
6.2 未来展望 |
参考文献 |
攻读硕士学位期间取得的学术成果 |
致谢 |
(8)虚拟“双簧”:三维人脸的唇动合成和表情合成(论文提纲范文)
摘要 |
Abstract |
第1章 绪论 |
1.1 课题来源及研究的目的和意义 |
1.1.1 课题来源及课题背景 |
1.1.2 研究的目的及意义 |
1.2 研究现状及分析 |
1.2.1 基于三维模型的人脸动画方法 |
1.2.2 人脸动画驱动技术 |
1.2.3 唇动合成方法分类 |
1.3 本文的主要研究内容 |
第2章 基于CANDIDE-3 面部模型的人脸重构 |
2.1 CANDIDE-3 模型简介 |
2.2 Haar 特征及其计算 |
2.2.1 Haar 特征 |
2.2.2 积分图 |
2.2.3 计算Haar 特征 |
2.3 AdaBoost 算法 |
2.3.1 AdaBoost 简介 |
2.3.2 训练误差 |
2.4 人脸及眼睛检测算法 |
2.4.1 Viola 经典检测框架 |
2.4.2 基于Haar 型特征的弱分类器 |
2.4.3 Cascade 结构 |
2.5 眼睛特征提取 |
2.5.1 眼睛区域的二值化处理 |
2.5.2 眼球区域的投影和搜索 |
2.6 模型参数获取及人脸重构 |
2.6.1 模型参数获取 |
2.6.2 CANDIDE-3 模型重构 |
2.7 本章小结 |
第3章 语料库基元运动特征提取 |
3.1 数据库介绍及数据预处理 |
3.1.1 数据库介绍 |
3.1.2 数据采集与语料分割 |
3.1.3 嘴唇特征点的选取 |
3.2 基于水平集的唇区轮廓提取方法 |
3.2.1 唇区检测和轮廓提取 |
3.2.2 基于颜色空间的变化处理 |
3.2.3 基于水平集的轮廓提取方法 |
3.3 手工标注方法 |
3.4 本章小结 |
第4章 基于MPEG-4 标准的动画合成 |
4.1 MPEG-4 人脸动画标准 |
4.1.1 人脸特征点参数FDP |
4.1.2 人脸运动参数FAP |
4.1.3 人脸动画参数单元(FAPU) |
4.1.4 MPEG-4 与 CANDIDE-3 |
4.1.5 FAP 驱动人脸动画基本原理 |
4.1.6 FAP 驱动三维人脸网格点的计算 |
4.2 人脸动画模型构建 |
4.2.1 动画模型框架 |
4.2.2 动画单元向量(AUV) |
4.3 人脸动画表情合成实验结果 |
4.3.1 真实感三维人脸重建合成效果 |
4.3.2 二维卡通人脸合成效果 |
4.4 本章小结 |
第5章 系统总体构架 |
5.1 系统整体框架和工作流 |
5.2 系统整合阶段需关注的问题 |
5.2.1 音视素的映射处理 |
5.2.3 动画参数的计算 |
5.3 唇动和表情合成 |
5.4 本章小结 |
结论 |
参考文献 |
附录 |
致谢 |
(9)人脸器官拼接融合及其在人脸动画中的应用(论文提纲范文)
摘要 |
Abstract |
第1章 绪论 |
1.1 人脸动画的研究背景和意义 |
1.1.1 人脸动画的分类 |
1.1.1.1 基于三维模型的人脸动画 |
1.1.1.2 基于样本的人脸动画 |
1.1.1.3 基于单幅图像变形的人脸动画 |
1.2 人脸特征点定位研究背景 |
1.3 图像拼接融合研究背景 |
1.4 研究内容 |
1.5 论文组织 |
第2章 MPEG-4 人脸动画标准 |
2.1 中性状态人脸模型 |
2.2 人脸定义参数 |
2.3 人脸动画参数 |
2.4 人脸动画参数单位 |
2.5 本章小结 |
第3章 人脸动画的中的变形技术 |
3.1 基于散乱点插值的方法 |
3.2 基于碎片的方法 |
3.2.1 基于三角剖分的图像变形算法 |
3.2.2 基于网格扭曲的图像变形算法 |
3.3 本章小结 |
第4章 人脸特征点定位 |
4.1 基于灰度及变化信息 |
4.2 基于活动轮廓线模型 |
4.3 基于神经网络 |
4.4 基于可变形模板 |
4.5 基于肤色模型的人脸特征点自动定位 |
4.5.1 基于肤色模型的唇部自动定位方法 |
4.5.1.1 唇部检测方法概述 |
4.5.1.2 唇部检测区域定位 |
4.5.1.3 唇部检测 |
4.5.1.4 唇部定位 |
4.5.2 基于肤色模型的人眼自动定位方法 |
4.5.2.1 人眼定位具体步骤 |
4.6 本章小结 |
第5章 图像拼接和融合 |
5.1 图像拼接流程 |
5.2 图像配准 |
5.2.1 基于特征的图像配准 |
5.2.1.1 控制点配准算法 |
5.2.1.2 自动角点检测配准算法 |
5.2.1.3 基于轮廓特征的配准算法 |
5.2.1.4 基于SIFT(尺度不变特征变换)的配准算法 |
5.2.2 基于区域的图像配准 |
5.2.2.1 相关法 |
5.2.2.2 对数极坐标变换方法 |
5.2.2.3 最大互信息配准法 |
5.3 图像融合 |
5.3.1 基于图像灰度的融合算法 |
5.3.1.1 加权平均法 |
5.3.1.2 基于感兴趣区域图像融合方法 |
5.3.2 基于颜色空间变换的融合算法 |
5.3.3 基于变换域的融合算法 |
5.4 本章小结 |
第6章 加入了人脸器官拼接融合的人脸动画系统实现 |
6.1 系统框架 |
6.2 人脸特征点参数建模模块 |
6.2.1 人脸图像二值化 |
6.2.2 脸部区域检测 |
6.2.3 眼孔检测 |
6.2.4 眼角检测 |
6.2.5 嘴角检测 |
6.2.6 手动定位 |
6.2.7 特征点定义 |
6.3 语音识别模块 |
6.4 图像变形模块 |
6.4.1 人脸图像变形的控制 |
6.4.2 Mesh-warping 变形算法 |
6.4.2.1 构造样条 |
6.4.2.2 图像变形 |
6.5 人脸口腔/眼球器官拼接融合 |
6.5.1 配准样本图像和人脸图像 |
6.5.2 构造样条并根据极坐标插值变形样本图像 |
6.5.3 图像融合 |
6.5.4 眼球效果特处理 |
6.6 系统实现 |
6.7 实验结果 |
6.7.1 动画效果 |
6.7.1.1 说话口型效果 |
6.7.1.2 口腔融合效果 |
6.7.1.3 眨眼动画和眼球运动效果 |
6.7.2 实时性 |
第7章 结束语 |
7.1 总结 |
7.2 工作展望 |
参考文献 |
致谢 |
在读期间发表的学术论文与取得的研究成果 |
(10)基于X3D规范的网络探究式学习平台构建研究(论文提纲范文)
摘要 |
ABSTRACT |
第1章 绪论 |
1.1 问题的提出 |
1.1.1 选题背景 |
1.1.2 二维学习平台的不足 |
1.1.3 三维学习平台的优势 |
1.2 研究目的和意义 |
1.3 研究现状 |
1.3.1 虚拟现实技术的研究现状 |
1.3.2 X3D技术的研究现状 |
1.4 研究内容和论文结构 |
1.4.1 研究内容 |
1.4.2 论文结构 |
第2章 虚拟现实技术与教育 |
2.1 虚拟现实技术 |
2.1.1 虚拟现实的定义和界定 |
2.1.2 虚拟现实体验的四个关键要素 |
2.1.3 虚拟现实系统的构成 |
2.1.4 虚拟现实技术在教育中的应用 |
2.2 虚拟现实技术与学习理论的探讨 |
2.2.1 虚拟现实技术与行为主义 |
2.2.2 虚拟现实技术与认知主义 |
2.2.3 虚拟现实技术与建构主义 |
2.2.4 虚拟现实技术与人本主义 |
2.3 虚拟现实技术对教学的影响 |
2.3.1 教学观念的变化 |
2.3.2 教学内容的变化 |
2.3.3 教学手段的变化 |
2.4 本章小节 |
第3章 基于X3D的虚拟现实技术 |
3.1 三维网络可视化技术 |
3.1.1 QuickTime VR(QTVR) |
3.1.2 Cult 3D |
3.1.3 Java 3D |
3.1.4 几种三维可视化技术的比较(选择X3D的原因) |
3.2 X3D的前身—VRML技术 |
3.2.1 VRML到X3D的发展历程 |
3.2.2 VRML的特性 |
3.2.3 VRML的缺点 |
3.3 X3D |
3.3.1 X3D是什么 |
3.3.2 X3D的整体结构 |
3.3.3 X3D的基本语法 |
3.3.4 X3D的特点 |
3.4 本章小节 |
第4章 基于X3D规范的网络探究式学习平台模型构建 |
4.1 基于X3D规范的网络探究式学习平台的基本要素 |
4.1.1 平台的定义 |
4.1.2 平台制作的要求(总体需求分析) |
4.1.3 平台制作的方法 |
4.1.4 平台设计思路 |
4.2 平台的功能 |
4.2.1 从技术总结平台功能 |
4.2.2 从实验教学总结平台功能 |
4.2.3 从学习者和教师的角度总结平台功能 |
4.2.4 基于X3D的网络探究式学习平台的功能 |
4.3 平台的实现技术 |
4.3.1 虚拟场景的建模 |
4.3.2 ASP.NET技术 |
4.3.3 SQL Server2000数据库技术 |
4.4 本章小节 |
第5章 基于X3D的网络探究式学习平台功能实 |
5.1 平台构架的实现 |
5.1.1 开发与运行环境 |
5.1.2 分层架构设计 |
5.1.3 数据库技术 |
5.1.4 模块设计与实现 |
5.2 虚拟实验功能的实现 |
5.2.1 虚拟场景的建模 |
5.2.2 平台的音频技术 |
5.2.3 虚拟实验的交互技术 |
5.3 学习平台的实施与应用效果评价 |
5.3.1 学习平台的实施 |
5.3.2 平台应用效果的分析与评价 |
5.4 本章小节 |
第6章 结论和展望 |
6.1 平台的功能及其优点 |
6.2 存在的不足 |
6.3 下一步的工作 |
参考文献 |
附录 |
致谢 |
在学期间发表的文章 |
四、三维语音动画聊天室的设计与实现(论文参考文献)
- [1]智能协同在三维虚拟实验中的应用[D]. 张祥裕. 广东工业大学, 2020(06)
- [2]小学英语教学中利用信息技术创设英语真实学习环境的研究[D]. 农丽雯. 华中师范大学, 2020(01)
- [3]3D虚拟动画即时通信系统的设计与实现[D]. 彭恒. 北京邮电大学, 2019(08)
- [4]游戏社区App的UI设计研究 ——以《掌上英雄联盟》为例[D]. 薛衍琛. 江西师范大学, 2019(03)
- [5]语音驱动三维唇形动画算法研究[D]. 梁晓昀. 北京理工大学, 2016(02)
- [6]汉语发音的唇形可视化处理方法研究[D]. 杨宏. 湖南师范大学, 2013(S1)
- [7]基于综合加权算法的汉语语音同步三维口型动画研究[D]. 毕永新. 山东财经大学, 2012(03)
- [8]虚拟“双簧”:三维人脸的唇动合成和表情合成[D]. 王倩. 哈尔滨工业大学, 2010(05)
- [9]人脸器官拼接融合及其在人脸动画中的应用[D]. 倪奎. 中国科学技术大学, 2009(07)
- [10]基于X3D规范的网络探究式学习平台构建研究[D]. 梁琨. 西南大学, 2008(09)