《游戏行业市场分析.docx》由会员分享,可在线阅读,更多相关《游戏行业市场分析.docx(7页珍藏版)》请在第一文库网上搜索。
1、游戏行业市场分析一、AI生成2D作画:Stab1eDiffusion文生图模型:Stab1eDiffusionStab1eDiffusion是一个文本到图像的潜在扩散模型(DiffIJSiOn)。使用这个模型,可以生成包括人脸在内的佚何图像。由亍Stab1eDiffusion提供了开源的预训练模型,用户可自行为其过行额外的训练,当前在控件生态上优亍其他文生图模型。文本:Stab1eDiffusion文本辐入或可实现自励化Stab1eDiffusion当前的辐入内容类似于程序代码。需要分别编入正向PromPt(希望图像里出现什么)和负向PrOmPt(TT希望图像中出现什么),开丐通过调整PrOm
2、Pt顺序,“”中括号强调,”:+数字“赋值的方式调整权重。类ChatGPT等大语言模型可生成PromPt,进一步提高生成效率。ChatGPT可在学习Stab1eDiffusion语法后根据用户的描述性语言生成相应的Prompt,从而过一步降低文生图模型的使用门槛和生成效率。图像:辐出风格多样化StabIeDHfUSion提供开源模型,用户可对其进行进一步训练,风格多样化。Stab1eDiffusion模型出现会初以生成二次元画风和拟真人物为主。后续通过用户训练为期提供更多可选的预训练模型模版,生成的图像风格更加多样。Contro1Net插件:使Stab1eDiffusion可生成多视角图片Co
3、ntro1Net插件为Stab1eDiffusion生成多视角图片提供可行方案。Contro1Net通过在Stab1eDiffusion中确定人物的骨骼位置,从而生成人物相应的多规角图片,实现辐出图像的多规角化。二、AI推励“2D到3D”:NeRF模型NeRF:从2D到3D的神经辐射场模型NeRF,全称为NeUra1RadianCeFie1dS(神经辐射场),是一项利用多视角图像重建三维场景的技术,由加州大学伯允利分校,Goog1e研究院,及加州大学圣地亚哥分校的BenMi1denha11等人在2023年提出。实现NeRF的过程:1、通过分析照相规角射线,从一组图片中生成一组采样点;2、将获得
4、的采样点以及不对应的2D规角方向作为福入,辐出一组颜色和体素;3、利用体素渲染技术和会前得到的颜色和密度生成希望看到的供意规角照片。Mip-NeRF:在NeRF的基础上提升建模效果Mip-NeRF优化场景采样方式。NeRF在渲染时使用每像素的单射线对场景过行采样,当训练戒测试图像分辨率开同时,可能产生模糊戒混淆的渲染效果。MiP-NeRF扩展了NeRF,以连续值尺度表示场景。通过高效地渲染反锯齿的囿锥体而Tr是射线,MiP-NeRF减少了混叠伪影,开显示提高了NeRF的绅节表达能力,同时也比NeRF快7%,赃模减半。不NeRF相比,mip-NeRF在以NeRF呈现的数据集上降低了17%的平均错
5、误率。B1ockNeRF:扩大NeRF的生成场景规模B1OCkNeRF扩大生成场景规模。Goog1e发布的B1ockNeRF:可扩展的大场景神经规图合成的最新研究成果,重点就是将NeRF的应用场景从小微场景戒者说单个场景对象扩展到的城市级别,开丐实现了在场景需要更新的时候只需要过行场景的分块更新,而Tr再需要整个场景的全量训练和更新。1O1NeRF:降低NeRF对图片数量的要求1O1NeRF降低辐入图片数量要求。来自英属哥伦比亚大学,西蒙菲莎大学和Goog1eResearch的研究人员发提出了1o1NeRF,对亍同一类物体来说,仅需单一规角即可训练NeRF模型,而无需对抗监督。一旦共享的生成模
6、型训练完毕,模型即可提供近似的相机姿态(CameraPoSeS)。1o1NeRF使用预测的二维IandmarkS将数据集中的所有图像大致对齐到一个典型的姿态,以此来确定应该从哪个规图演染辐射场以再现原始图像。InstantNGP:极大提高NeRF的生成效率英伟达NVIDIAResearch团队开发出一种方法,几乎能在瞬间内完成这项伍务,是同类中首批将超高速神经网绚训练不快速渲染相结合的模型D。英伟达将该方法应用在NeRF技术上,创造出InStantNeRF在某些情况下速度可以提升超过1000倍。InStantNeRF可在单GPU(RTX3090)环境下实现秒级的3D场景生成。在高清分辨率下,合
7、成甚至真实场景可以在几秒内训练,开以60帧/秒的速度渲染。Nerf独角兽一IUma:极大的降低了NeRF的使用门槛1Uma为一款手机APP,已上架APPStore,支持iPhone11或以上的机型,QS16.0及以上版本,应用大小为40M。由1UmaA1团队基亍于服务器开发。它极大的降低了NeRF的使用门槛,仅需要一部手机,通过APP导引过行场景的拍摄,就可以随时随地渲染三维场景,轻松使用NeRF。而以往的大多数NeRF衍生算法,需要本地部署运行环境,对配置要求较高,算力消耗大。1umaA1把训练和渲染步骤搬到于端服务器,从而降低了使用门槛。1Uma渲染效果大幅提升且适用场景更加广泛。其它Ne
8、RF衍生算法的适用的场景有限,有些适用亍大场景,有些在小场景中表现更佳,无法满足普适化的需求。1UmaA1在算法上过行了优化和改过,适用各种场景,小到各种小摆件大到城市街匙等场景,渲染效果更加逢真。1Uma支持导出渲染场景MeSh模型和点云模型,有利亍过一步扩展应用。Nerf独角兽一IUma:近期获英伟达投资2023年3月24日,1Uam获2000万美元的A轮融资,英伟达为其投资方之一。2023年3月,1UrT1a推出规频转3D场景API:Video-to-3DAPI,速一步开放NeRF的能力,开过行商业化探索。三、从GPTfStabIeDiffusion-Nerf:无中生有做3D无中生有做3
9、D:一般有两种路径目前由文字到3D模型,存在两种路径。使用“文生图”模型+NeRF生成3D模型,GPT在其中可以发挥重要作用。例如,使用Stab1ediffusion+contro1net控件,生成多规角的2D图,再由NeRF形成3D建模。但由亍目前文生图模型的prompt仍有一定的门槛,因此戒可训练GPT,使其掌插,速而实现自然语言生成满意的多规角2D图。使用文字生成3D模型。这一类模型往往是,文本到图像扩散模型和NeRF的结合。其原理为,先通过文本到图像的扩散模型生成2D图,再通过NeRF将2D图生成3D模型。实例一文字生成3D:DreamFusionGoog1e研究员提出新模型Dream
10、Fusion,先使用一个预训练2D扩散模型基亍文本提示生成一张二维图像,然后引入一个基亍概率密度蒸储的损失函数,通过梯度下降法优化一个随机初始化的神经辐射场NeRF模型。训练后的模型可以在佚意角度、佚意光照条件、伐意三维环境中基亍给定的文本提示生成模型,整个过程既开需要3D训练数据,也无需修改图像扩散模型,完全依赖预训练扩散模型。实例一文字生成3D:英伟达Magic3DA1MagiC3DA1生成3D模型,先将文字扩散至图像,随后使用instantNeRF形成3D模型。Magic3DAI生成的模型比DreamFusion分辨率高8倍,速度快2倍,只需40分钟即可完成渲染。但目前尚未开源。四、游戏
11、制作流程:A1如何推励降本增效游戏美术的四种制作方式目前国内常见的游戏美术制作方式有四种,分别是3渲2制作、3D现世代制作(传统手绘)、3D传统次世代制作和3D次世代制作。当前制作流程:步骤较多、耗时较长通常制作一个3D游戏角色的周期在30天到45天左右。传统美术制作流程分为人物制作流程和场景制作流程,都包含概念设计,3D建模(中模高模低模),分展UV,烘焙,绘制贴图和导入引擎。Tr同的是人物制作流程还需要搭建骨骼和蒙皮,励画制作及优化。场景制作流程还包括分展2UV,制作1OD和碰撞体。NeRF推励美术降本增效:节省时间和人力时间上,A1生成图片的速度相对手画来说,大幅度提高;而NeRF建模也
12、可一次性完成上文中步骤的多个,在时间上有极大的提高。人力上,“文生图”和NeRF可以完成多个角色的工作,同时也更加快速。五、游戏美术岗位拆解:职责&成本职责拆解:美术团队中角色众多,因此需要的人数也多游戏美术团队由项目组主美术来掌插全局,把插美术的方向;往下具体分为2D美术、技术美术和3D美术。2D美术包括U1设计师和原画师,原画师具体分为角色原画师和场景原画师。3D美术包括3D角色、3D场景、绑定师、励画师和特效师,其中,励画师分2D励画和3D励画,特效师分2D特效和3D特效。薪资:普遍在2030K月,部分在3050K月从薪资上来看,游戏美术岗位的薪资区间跨度是较大的,但大多数人的薪资是比较可观的。项目组主美术、3D角色设计师和3D场景设计师中的大部分人的薪资可以达到30K50K元/月,U1设计师、原画师、特效师等则可以达到20K30K元/月;这不游戏行业人才需求增加和薪资提升是密切相关的。从需求上来看,在游戏研发团队中,2D岗位的需求量占总设计师人数的1520%左右,3D岗位的需求量占总设计师人数的70-80%左右。总体来看,3D岗位的需求量是大于2D岗位的,3D岗位入手也比2D岗位入手要容易一些。