一种虚拟面部模型处理方法及相关设备与流程

专利2024-12-30  15



1.本公开涉及计算机技术领域,尤其涉及一种虚拟面部模型处理方法及相关设备。


背景技术:

2.随着计算机技术和移动终端的飞速发展,市场上越来越多的游戏应用软件加入了虚拟面部处理技术。作为新型人机交互方式,对于虚拟面部处理技术的可掌控性与感知性已经有了更高的要求。
3.目前,在现有技术中,通常使用的虚拟面部处理方法主要包括:面部调整法和妆容替换法。面部调整法主要利用面部的位移、拉伸及缩放来实现虚拟面部的塑造,通过在操作界面中直接点击拉扯、操纵杆调节、二维摇杆式等方式调整应用软件中待改造的角色面部,进而实现虚拟面部形象的塑造。妆容替换法主要是通过虚拟面部的形状特征和空间关系特征、颜色特征、纹理特征等进行选择项目调整,用户可以根据个人的喜好进行多次选择,直至将待塑造的虚拟面部形象调整到用户满意为止。
4.由于现有技术存在虚拟面部处理过程中自由度过高、用户无法感知修改部位影响效果以及目标面部模型的获取效率低的技术问题,获取一种能够便于用户感知修改部位对虚拟面部效果影响的虚拟面部模型处理方法,成为目标虚拟面部模型塑造的关键。


技术实现要素:

5.有鉴于此,本公开提供一种虚拟面部模型处理方法,以解决现有虚拟面部模型处理方法无法解决用户对角色修改部位影响效果感知度低、对修改部位的掌控力不足以及目标面部模型的获取效率低的技术问题。
6.本公开实施例第一方面提供了一种虚拟面部模型处理方法,通过终端设备提供图形用户界面,该方法包括:
7.通过所述图形用户界面显示虚拟角色对应的初始虚拟面部模型;
8.在所述图形用户界面的所述初始虚拟面部模型对应的区域显示面部骨骼;
9.响应于对所述面部骨骼对应的交互区域的操控操作,获取所述操控操作对应的调整参数;
10.根据所述调整参数,对所述面部骨骼进行调整,将所述初始虚拟面部模型调整至目标虚拟面部模型。
11.在一个可选的实施方式中,所述面部骨骼被配置为响应,第一调整操作调整不透明度;或者,所述面部骨骼的关键点被配置为响应,第一调整操作调整不透明度。
12.在一个可选的实施方式中,所述面部骨骼对应的交互区域,包括如下形式中的至少一种:
13.设置在所述图形用户界面上的第一控制元件;
14.所述面部骨骼上显示的控制点;
15.所述初始虚拟面部模型上显示的所述面部骨骼;
16.所述初始虚拟面部模型上位于所述面部骨骼之外,能够影响所述面部骨骼的外控制点。
17.在一个可选的实施方式中,所述控制点,包括:
18.所述面部骨骼的关键点;或,
19.所述面部骨骼的非关键点。
20.在一个可选的实施方式中,所述响应于对所述面部骨骼对应的交互区域的操控操作,包括:
21.对所述面部骨骼的控制点进行选择;
22.响应于对所选择的所述面部骨骼控制点的操作,获取所述操控操作对应的调整参数。
23.在一个可选的实施方式中,所述方法还包括:
24.所述对所述面部骨骼的控制点进行选择的步骤执行后,若所选择的控制点为所述关键点,则所述面部骨骼其余的所述关键点被隐藏;
25.所述响应于对所选择的所述面部骨骼控制点的操作的步骤中,所述被选择的关键点被放大显示,以便于通过预定的操作方式进行所述调整。
26.在一个可选的实施方式中,所述方法还包括:
27.所述响应于对所选择的所述面部骨骼控制点的操作的步骤执行后,对所述面部骨骼和所述被选择的控制点进行隐藏。
28.在一个可选的实施方式中,所述获取所述操控操作对应的调整参数,包括:
29.获取所述被选择的控制点以及所述控制点控制的区域的变化方式参数,和变化幅度参数;
30.以及,根据所述面部骨骼的关键点之间的相对关系参数,获得与所述控制点具有关联关系的其他关键点的变化方式参数,和变化幅度参数。
31.在一个可选的实施方式中,所述将所述初始虚拟面部模型调整至目标虚拟面部模型,包括:
32.根据所述面部骨骼的调整,所述初始虚拟面部模型对应区域的表层组织进行适应性调整。
33.本公开实施例第二方面提供了一种虚拟面部模型处理装置,该虚拟面部模型处理装置包括:
34.第一显示单元,用于通过通过所述图形用户界面显示虚拟角色对应的初始虚拟面部模型;
35.第二显示单元,用于在所述图形用户界面的所述初始虚拟面部模型对应的区域显示面部骨骼;
36.处理单元,用于响应于对所述面部骨骼对应的交互区域的操控操作,获取所述操控操作对应的调整参数;
37.改造单元,用于根据所述调整参数,对所述面部骨骼进行调整,将所述初始虚拟面部模型调整至目标虚拟面部模型。
38.本公开实施例第三方面还提供了一种电子设备,包括:存储器和处理器,存储器和处理器耦合。
39.其中,存储器用于存储一条或多条计算机指令。
40.处理器用于执行一条或多条计算机指令,以实现上述第一方面所述的虚拟面部模型处理方法。
41.本公开实施例第四方面还提供了一种计算机可读存储介质,其上存储有一条或多条计算机指令,其特征在于,该指令被处理器执行以实现上述任意一种技术方案所述的方法。
42.本公开实施例所提供的技术方案,先通过图形用户界面显示虚拟角色对应的初始虚拟面部模型,然后在图形用户界面的初始虚拟面部模型对应的区域显示面部骨骼,再响应于对面部骨骼对应的交互区域的操控操作,获取操控操作对应的调整参数,最后根据调整参数,对面部骨骼进行调整,将初始虚拟面部模型调整至目标虚拟面部模型。相较于现有利用面部调整法和妆容替换法进行虚拟面部处理的技术方案,本公开实施例提供的技术方案通过在图形用户界面的初始虚拟面部模型对应的区域显示面部骨骼,再利用面部骨骼对应的交互区域的操控操作,直接对面部骨骼进行调整,提升了用户对角色修改部位影响效果的感知,增加了对修改部位的掌控力,进而达到提升目标虚拟面部模型获取效率的目的。
附图说明
43.为了更清楚地说明本公开实施例的技术方案,下面将对本公开实施例的描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
44.图1是本公开第一实施例提供的一种虚拟面部模型处理方法的流程图;
45.图2是本公开第一实施例提供的一种图形用户界面的初始虚拟面部模型的示意图;
46.图3是本公开第一实施例提供的一种在初始虚拟面部模型中显示面部骨骼的示意图;
47.图4是本公开第一实施例提供的一种在初始虚拟面部模型中调节面部骨骼不透明度的示意图;
48.图5是本公开第一实施例提供的一种在初始虚拟面部模型中面部骨骼关键点不透明度的示意图;
49.图6是本公开第一实施例提供的一种利用面部骨骼的关键点进行虚拟面部模型调整的示意图;
50.图7是本公开第二实施例提供的一种虚拟面部模型处理装置的结构示意图;
51.图8是本公开第三实施例提供的电子设备的一种结构示意图;
52.图9是本公开第四实施例提供的存储介质的一种结构示意图;
具体实施方式
53.本公开提供了一种虚拟面部模型处理方法及相关设备,通过在图形用户界面的初始虚拟面部模型对应的区域显示面部骨骼,再利用面部骨骼对应的交互区域的操控操作,直接对面部骨骼进行调整。这样将提升用户对角色修改部位影响效果感知,增加用户对修
改部位的掌控力,进而更加高效的获取目标虚拟面部模型。
54.为了使本领域的技术人员能够更好的理解本公开的技术方案,下面结合本公开实施例中的附图,对本公开进行清楚、完整地描述。但本公开能够以很多不同于上述描述的其他方式进行实施,因此,基于本公开提供的实施例,本领域普通技术人员在不经过创造性劳动的情况下,所获得的所有其他实施例,都应属于本公开保护的范围。
55.需要说明的是,本公开的权利要求书、说明书及附图中的术语

第一



第二



第三

等是用于区别类似的对象,并不用于描述特定的顺序或先后次序。这样使用的数据在适当情况下是可以互换的,以便于本文所描述的本公开的实施例,能够以除了在本文图示或描述的内容以外的顺序实施。此外,术语

包括



具有

以及他们的变形形式,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
56.本公开中,除非另有明确说明,术语



包括所有可能的组合,但不可行的除外。例如,如果表达为一个数据库可能包括a或b,则除非另有特别规定或不可行,可能包括数据库a,或b,或者a和b。另外一个例子,如果表达为某个数据库可能包括a、b或c,则除非另有特别规定或不可行,所述数据库可以包括数据库a,或b、或c、或者a和b、或者a和c、或者b和c、或者a和b和c。
57.本公开提供的虚拟面部模型处理方法的实施例,需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
58.为了便于理解本公开公开实施例提供的虚拟面部模型处理方法,接下来首先对该方法的应用场景进行详细说明。本公开公开的实施例提供的虚拟面部模型处理方法主要可以应用于计算机技术领域,或者其他具有面部形象塑造需求的相关技术领域。所述虚拟面部模型处理是指在游戏应用软件中,用户按照个人喜好,通过画面或视频中虚拟角色的面部容貌、妆容等方面的改变,实现应用界面中的面部形象的塑造。
59.现有的虚拟面部处理方法有多种,其中最常用的处理方法为面部调整法和妆容替换法。然而,上述方法在实际应用过程中,当用户为不同虚拟角色面部进行形象塑造时,通常会按照个人喜好改变角色形象,但用户往往也会在意该虚拟角色形象塑造过程中的真实性与可控性,若虚拟角色面部形象塑造的自由度太高,处理过程中往往会出现

失控

现象,出现各种奇奇怪怪的牛鬼蛇神;若处理过程中自由度太低,用户又会失去虚拟面部形象塑造diy的乐趣,降低了形象定制过程的体验感与满足感。这里以游戏技术领域为例,在游戏玩家试图通过虚拟角色面部形象塑造进行游戏体验的情况下,通常游戏玩家期望该待改造的虚拟游戏角色面部形象更符合个人喜好,同时在改造过程中获得diy创造乐趣,最终改造后的虚拟角色面部形象具备真实性与可观赏性,进而增加游戏玩家在游戏体验过程中的体验感与参与度。如何在虚拟面部处理过程中,提高用户对修改部位影响效果的感知,增加对修改部位的掌控力,成为虚拟角色面部形象塑造亟待解决的技术问题。
60.针对上述问题,在本公开中,提供了一种虚拟面部模型处理方法及相关设备,通过在图形用户界面的初始虚拟面部模型对应的区域显示面部骨骼,再利用面部骨骼对应的交
互区域的操控操作,直接对面部骨骼进行调整,提升了用户对角色修改部位影响效果感知,增加了对修改部位的掌控力,尤其适用于手机游戏场景中。下面结合具体实施例及附图对本公开所述的方法、装置、电子设备以及计算机可读存储介质做进一步详细说明。
61.在本公开其中一种实施例中的虚拟面部模型处理方法可以运行于本地终端设备或者是服务器。当虚拟面部模型处理方法运行于服务器时,该虚拟面部模型处理方法则可以基于云交互系统来实现与执行,其中,云交互系统包括服务器和客户端设备。
62.在一可选的实施方式中,云交互系统下可以运行各种云应用,例如:云游戏。以云游戏为例,云游戏是指以云计算为基础的游戏方式。在云游戏的运行模式下,游戏程序的运行主体和游戏画面呈现主体是分离的,虚拟面部模型处理方法的储存与运行是在云游戏服务器上完成的,客户端设备的作用用于数据的接收、发送以及游戏画面的呈现,举例而言,客户端设备可以是靠近用户侧的具有数据传输功能的显示设备,如,移动终端、电视机、计算机、掌上电脑等;但是进行信息处理的为云端的云游戏服务器。在进行游戏时,玩家操作客户端设备向云游戏服务器发送操作指令,云游戏服务器根据操作指令运行游戏,将游戏画面等数据进行编码压缩,通过网络返回客户端设备,最后,通过客户端设备进行解码并输出游戏画面。
63.在一可选的实施方式中,以游戏为例,本地终端设备存储有游戏程序并用于呈现游戏画面。本地终端设备用于通过图形用户界面与玩家进行交互,即,常规的通过电子设备下载安装游戏程序并运行。该本地终端设备将图形用户界面提供给玩家的方式可以包括多种,例如,可以渲染显示在终端的显示屏上,或者,通过全息投影提供给玩家。举例而言,本地终端设备可以包括显示屏和处理器,该显示屏用于呈现图形用户界面,该图形用户界面包括游戏画面,该处理器用于运行该游戏、生成图形用户界面以及控制图形用户界面在显示屏上的显示。
64.本公开第一实施例提供一种虚拟面部模型处理方法。
65.图1是本实施例提供的一种虚拟面部模型处理方法的流程示意图。需要说明的是,该流程示意图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,同时,在某些情况下,可以以不同于该流程示意图中示出的逻辑顺序执行所示出的步骤。以下结合图1对本实施例提供的虚拟面部模型处理方法进行详细描述。描述所涉及的实施例用于解释本公开的技术方案,并不作为实际使用的限定。
66.请参看图1,本公开实施例所提供的虚拟面部模型处理方法包括以下几个步骤:
67.步骤s101,通过所述图形用户界面显示虚拟角色对应的初始虚拟面部模型。
68.本步骤的作用是将用于改造的初始虚拟面部模型,通过图形用户界面提供给操作者。
69.终端设备提供的所述图形用户界面,是指各种应用软件中用于塑造角色形象的应用界面,上述的应用软件包括但不限于图片美化软件、虚拟游戏软件、沟通畅聊软件等,本公开对于上述应用软件不作具体限定;但对于本公开而言,将后续操作的场景设定为在虚拟游戏软件中,对某个虚拟角色的面部形象进行调整,因此,所述图形用户界面具体为该虚拟游戏中的图形用户界面,该界面在游戏开始前的准备阶段打开,或者作为一个单独的游戏设定界面使用。所述图形用户界面显示有所述虚拟角色对应的初始虚拟面部模型;还显示有可用于用户进行面部模型塑造调整的交互区域,所述面部模型塑造调整的交互区域,
包括:妆容替换交互区域、及面部骨骼对应的交互区域。终端设备可以是前述提到的本地终端设备,也可以是前述提到的云交互系统中的客户端设备。
70.所述虚拟角色,相对于游戏中的其他虚拟形象,在本实施例中,是指具有相应面部模型的特定角色。由于本实施例是对虚拟角色面部形象的方法,因此,在进行虚拟面部模型处理时,每个待处理的虚拟角色需显示其对应的虚拟面部模型。
71.更进一步的,所述虚拟角色可以为具有面部骨骼的虚拟人物、动物等角色。其中,本实施例是指虚拟人物的面部骨骼;当然,也可以是虚拟动物角色的面部骨骼,例如,将游戏中将虚拟动物角色

功夫熊猫

的初始虚拟面部模型作为图形用户界面的调整对象,该

功夫熊猫

具有面部骨骼。
72.所述初始虚拟面部模型,为待改造的虚拟面部模型。所述待改造的虚拟面部模型可根据用户的个人喜好度,在终端设备的图像用户界面进行面部形象的调整;调整完成后即形成目标虚拟面部模型;因此,所述初始虚拟面部模型也可以理解为所述目标虚拟面部模型的初始状态。所述初始虚拟面部模型可显示该虚拟角色的面部形象,例如五官的比例及相对位置关系、皮肤的颜色、面部的轮廓等。
73.所述显示虚拟角色对应的初始虚拟面部模型,其显示初始虚拟面部模型的方式包括但不限于以二维图层画面显示的虚拟角色面部模型,以及以三维立体环绕图像显示的虚拟角色面部模型。为了便于理解,本实施例采用二维图层画面的显示方式进行描述。
74.请参照图2,该图示出了一种图形用户界面,及对应于该界面的初始虚拟面部模型的示意图。
75.如图2所示,在某色形象塑造的应用软件中,该图形用户界面显示出一虚拟角色

xxxx

的初始虚拟面部模型,以及用于游戏玩家进行面部形象塑造调整操作的交互区域。在

xxxx

初始虚拟面部模型中,显示有虚拟角色面部的五官、皮肤、面部轮廓、发型等。在该图形用户界面的面部模型塑造调整的交互区域,包括:妆容替换交互区域、及面部骨骼对应的交互区域。
76.示例性地,本步骤获得的是:某游戏应用软件中,虚拟角色

xxxx

的初始虚拟面部模型。
77.对于如何获取图形用户界面的初始虚拟面部模型,可参考相关技术或后续实施例,此处不再赘述。步骤s102,在所述图形用户界面的所述初始虚拟面部模型对应的区域显示面部骨骼。
78.本步骤根据用户在图像用户界面的交互操作,可实现初始虚拟面部模型对应区域的面部骨骼,在图像用户界面进行显示。这里的面部骨骼,典型的情况是指虚拟角色形象中在一般显示状态下不予显示而潜藏在虚拟角色面部模型外观下的控制部位。当然,也不排除面部骨骼之外的其他可能的对虚拟角色面部模型能够发生作用的对象。
79.在虚拟面部模型处理步骤中,用户通过选择初始面部模型对应的区域的面部骨骼进行显示,可以让用户更加直观的进行虚拟角色面部模型的调整,从而提升修改部位的感知力。其中,所述对应的区域,具体为所述图形用户界面中的所述面部骨骼,内嵌于所述初始虚拟面部模型的画面中。
80.如前所述,在图形用户界面的面部骨骼对应的交互区域,根据用户的第一触发操作,实现所述初始虚拟面部模型对应区域的面部骨骼的显示。在本实施例中作为示例,第一
触发操作的触发方式可以为双击鼠标左键、双指触摸滑动屏幕、屏幕触摸划圈等方式,本公开对第一触发操作的具体触发方式不作限定。所述面部骨骼,在本公开中,是指虚拟角色的初始虚拟面部模型在正常展示过程中不会直接以外显方式展示的骨骼,尤其是指该面部骨骼对虚拟角色外形轮廓的视觉影响。参照图3,该图示出了一种在初始虚拟面部模型中显示面部骨骼的示意图。
81.如图3所示,在某角色形象塑造的应用软件中,在图形用户界面,虚拟角色

xxxx

的初始虚拟面部模型画面中内嵌有该虚拟角色对应的面部骨骼。
82.所述初始虚拟面部模型对应的区域显示面部骨骼,包括:使得所述面部骨骼的整体显示,和/或,使得面部骨骼的关键点显示。
83.所述面部骨骼的关键点可以为初始虚拟面部模型中,虚拟角色面部额头关键骨点、虚拟角色面部前额关键骨点、虚拟角色面部鼻部关键骨点、虚拟角色面部嘴部关键骨点、虚拟角色面部下颌关键骨点、虚拟角色面部颧骨关键骨点等多处位置。通过在面部骨骼关键点的关键骨点进行视觉强化,凸显此处的初始虚拟面部模型塑造调整会较大程度的影响虚拟角色面部的整体形象,让用户对面部骨骼塑造部位重要程度有所认知,进而增强其模型塑造调整过程中的掌控力。
84.进一步的,所述面部骨骼被配置为响应,第一调整操作调整不透明度;或者,所述面部骨骼的关键点被配置为响应,第一调整操作调整不透明度。其中,所述第一调整操作是根据图形用户界面中的所述面部骨骼对应的交互区域的第一控制元件实现的。
85.所述第一控制元件,在所述图形用户界面中显示,第一控制元件可以为可滑动条,其滑动条上嵌有滑动按钮;第一控制元件也可以为具有多个选项的选择控件;第一控制元件还可以为圆环型调节控件、扇形指针式调节控件等;例如,第一控制元件可以为可滑动条,通过第一调整操作,对滑动条的滑动控制,使所述面部骨骼,和/或,面部骨骼关键点的不透明度随滑动条的滑动发生改变。本公开对于上述第一控制元件类型及呈现方式不作具体限定。
86.所述第一控制元件的第一调整操作可通过直接点击滑动、操纵杆调节、二维摇杆式等多种交互方式来实现用户在图形用户界面的交互操作。为了区别于面部骨骼和面部骨骼关键点不透明度的调整,将上述两者的第一调整操作的交互方式进行区别即可。例如,第一调整方式可以为单指滑动触发第一控制元件进行面部骨骼不透明度调整;双指滑动触发第一控制元件进行面部骨骼关键点的不透明度调整。具体的第一调整操作的交互方式,本公开实施例中不作具体限定。
87.为了更好的理解,请参照图4、图5。图4示出了一种在初始虚拟面部模型中调节面部骨骼不透明度的示意图;图5示出了一种在初始虚拟面部模型中面部骨骼关键点不透明度的示意图。
88.在该具体实施方式中,通过调节初始虚拟面部模型对的区域面部骨骼的不透明度,可增加面部骨骼在图形用户界面的显著性,使其得以突出显示。如图4所示,虚拟角色

xxxx

的面部骨骼,内嵌于该初始虚拟面部模型画面中。在该图形用户界面中,

xxxx

的面部骨骼内嵌于对应的皮相画面中,第一控制元件为可滑动条,滑条对应有不透明度从0%~100%不透明度选项,鼠标右键点击滑动滑条内的内嵌滑钮,可实现虚拟角色

xxxx

的面部骨骼的不透明度的调整,将滑钮对75%的可视化不透明度选项进行选择,相应的,图形用户
界面中将显示出对应于

xxxx

的75%不透明度的面部骨骼;参考图5的示意,图5为在初始虚拟面部模型中面部骨骼关键点不透明度的示意图。鼠标左键点击滑动滑条内的内嵌滑钮,可实现虚拟角色

xxxx

的面部骨骼关键点的不透明度的调整,该面部骨骼关键点上呈现出对应的关键点标记,可为圆形标记、扇形标记、圈状标记等多种形式,该面部骨骼关键点的不透明度的调整是指对上述关键点标记的不透明度的调整;以此增加用户在虚拟面部模型过程中,对于面部模型的整体认知。示例性地,本步骤中,将某游戏应用软件中,虚拟角色

xxxx

的面部骨骼在初始虚拟面部模型的对应区域进行显示,以及面部骨骼的关键点进行显示;其中,面部骨骼的不透明度为25%,面部骨骼关键点的不透明度为60%。
89.步骤s103,响应于对所述面部骨骼对应的交互区域的操控操作,获取所述操控操作对应的调整参数。
90.本步骤的作用是根据用户对面部骨骼对应的交互区域的操控操作,实现调整参数的获取。利用用户在面部骨骼交互区域的操作,可获得面部骨骼控制点的调整参数。
91.其中,所述面部骨骼对应的交互区域,包括如下形式中的至少一种:
92.设置在所述图形用户界面上的第一控制元件;
93.所述面部骨骼上显示的控制点;
94.所述初始虚拟面部模型上显示的所述面部骨骼;
95.所述初始虚拟面部模型上位于所述面部骨骼之外,能够影响所述面部骨骼的外控制点。
96.所述设置在所述图形用户界面上的第一控制元件,其主要目的是,用于步骤s102中的第一调整操作,调整面部骨骼或面部骨骼关键点的不透明度。具体的实施过程此处不再赘述,根据步骤s102的详细描述步骤展开。
97.其中,所述能够影响所述面部骨骼的外控制点,在所述部骨骼对应的交互区域内作为用户操作交互方式的一种,可对初始虚拟面部模型进行调整。
98.所述控制点,包括:
99.所述面部骨骼的关键点;或,
100.所述面部骨骼的非关键点。
101.此处需要理解的是,在虚拟角色面部模型的处理过程中,面部骨骼关键点的调整对于虚拟角色面部模型的影响非常显著;面部骨骼的非关键点作为在虚拟角色面部模型处理的次要影响因素,对于目标虚拟面部模型的获取也有着不可忽视的作用。因此,本实施例中,面部骨骼的控制点可存在上述两种形式。
102.其中,所述初始虚拟面部模型上显示的所述面部骨骼被配置为响应,可根据所述控制点调整进行相应的变化。
103.所述响应于对所述面部骨骼对应的交互区域的操控操作,包括:
104.对所述面部骨骼的控制点进行选择;
105.响应于对所选择的所述面部骨骼控制点的操作,获取所述操控操作对应的调整参数。
106.在本实施例中,对所述面部骨骼的控制点进行选择,包括:
107.对所述面部骨骼的关键点的选择;或,
108.对所述面部骨骼的非关键点的选择。
109.其中,上述面部骨骼的控制点进行选择的交互方式,可以为直接在关键点的标记上进行点击选择;也可以为非关键点进行触碰选择;具体的控制点选择的交互方式本实施例不作出具体的限定。
110.为了便于理解,请参考图5的示意。在图5中,虚拟角色

xxxx

的面部骨骼关键点:下颌关键骨点、鼻部关键骨点、颧骨关键骨点、前额关键骨点均一一显示于图形用户界面的初始虚拟面部模型中。用户根据个人的喜好进行

xxxx

虚拟角色的面部模型塑造调整的过程中,根据用户想要调整的部位,初步选定某个关键点,再进行单独调整。
111.所述对所述面部骨骼的控制点进行选择的步骤执行后,若所选择的控制点为所述关键点,则所述面部骨骼其余的所述关键点被隐藏;
112.所述响应于对所选择的所述面部骨骼控制点的操作的步骤中,所述被选择的关键点被放大显示,以便于通过预定的操作方式进行所述调整。
113.参照图6,该图示出了一种利用面部骨骼的关键点进行虚拟面部模型调整的示意图。
114.如图6中所示出的,选择

xxxx

面部骨骼的颧骨关键骨点。在对被选择的关键骨点进行调整的过程中,主要是对被选择的关键点以及该关键点控制的区域进行调整。在对

xxxx

关键骨点

颧骨

进行选择的步骤执行后,面部骨骼其余关键点自动进行隐藏,并且被选择的

颧骨

关键点被放大显示;未选择时该半透明式小圆形标记较小,选择后的该小圆形标记会进一步放大。用户对该放大显示的面部骨骼

颧骨

关键骨点操作的交互过程,可以为图6中所示的,利用直接点击拉扯骨骼关键点的控制区域、或者操纵杆调节面部骨骼对应的交互区域(如图6中的右侧,所示出的高度摇杆)的方式。进而凸显该关键骨点处的修改会较大程度影响角色整体的形象效果,通过上述步骤可以让游戏玩家对虚拟面部模型的部位重要程度有所认知,减少游戏玩家处理过程中因为掌控力不足而产生的挫败感。
115.所述获取所述操控操作对应的调整参数,包括:
116.获取所述被选择的控制点以及所述控制点控制的区域的变化方式参数,和变化幅度参数;
117.以及,根据所述面部骨骼的关键点之间的相对关系参数,获得与所述控制点具有关联关系的其他关键点的变化方式参数,和变化幅度参数。
118.为了便于理解,做出进一步的解释,面部骨骼的变化方式及变化幅度具有多样性。例如,控制点包括面部骨骼的关键点和非关键点。用户同步调整面部关键骨点鼻部的山根高度、鼻翼的宽度以及鼻梁的距离等,在该调整过程中,关于鼻部关键骨点所获得的变化方式参数以及变化幅度参数的类型和数目是多种多样的。更进一步的,在面部骨骼鼻部的关键点变化过程中,由于面部骨骼是整体的面部骨相系统,骨骼的关键点之间具有关联性,骨骼的关键点与相邻或相近的非关键点之间也是具有关联性,因此相邻或相近的关键骨点互相之间是具有影响的、相邻或相近的非关键骨点之间也有影响。例如,若用户改变了关键骨点鼻部的山根高度,相应的,相邻的眼部关键骨点的内眼角的角度及位置也会发生相应的变化,相邻的鼻梁处非骨骼关键点也会产生相应的变化;因此,获取在面部骨骼被选择的控制点及控制点控制的区域的变化方式参数,和变化幅度参数时,也会同步获取具有相对关系的关键点的变化参数。
119.如前所述,面部骨骼的非关键点作为在虚拟角色面部模型处理的次要影响因素,
对于目标虚拟面部模型的获取也有着不可忽视的作用。在本实施例中,用户对面部骨骼的非关键骨点操作的交互过程,可以为直接点击非关键点对应的面部骨骼位置,利用二维摇杆、滑动拉扯等方式进行操作。
120.示例性地,本步骤获取的是,某游戏应用软件中,虚拟角色

xxxx

的面部骨骼关键点

颧骨”处的调整参数,以及面部骨骼非关键点

脸颊

处的调整参数。
121.在本实施例中,妆容替换交互区域主要用于用户根据个人喜好,在可选择的调整项目中进行选择并替换,进而实现初始虚拟角色面部模型的调整。用户对该区域的第二操控操作、第三操控操作的交互方式,可以为滑动拖拽欲调整项目、还可以为点击欲调整项目,本实施例对于该操作的具体形式不作限定。例如,如图4中所示出的,虚拟角色

xxxx

的眼睛形状可提供桃花眼、柳叶眼、丹凤眼、杏眼等多种可选择项目;如图6中所示,脸型可提供鹅蛋脸、圆脸、方脸、国字型脸等多种可选择项目。用户可根据第二操控操作进行选择丹凤眼并在该初始虚拟面部模型上进行替换显示,根据第三操控操作点击确认该选项。
122.步骤s104,根据所述调整参数,对所述面部骨骼进行调整,将所述初始虚拟面部模型调整至目标虚拟面部模型。
123.本步骤的作用是根据调整参数,获取目标虚拟面部模型。
124.其中,初始虚拟面部模型根据调整参数对面部骨骼进行调整。可以为通过关键骨点的调整参数,将关键骨点的位置进行移动的方式实现关键骨点的调整、还可以为将关键骨点进行旋转完成调整,还可以为非关键骨点大小的缩放进行调整等。
125.所述响应于对所选择的所述面部骨骼控制点的操作的步骤执行后,对所述面部骨骼和所述被选择的控制点进行隐藏。
126.所述将所述初始虚拟面部模型调整至目标虚拟面部模型,包括:
127.根据所述面部骨骼的调整,所述初始虚拟面部模型对应区域的表层组织进行适应性调整。
128.在游戏应用的图形用户界面中,随着虚拟角色形象面部骨骼的调整,其对应区域的皮肤会随角色骨骼的调整而适应性的改变,进而增强了用户在视觉上对虚拟角色面部形象的感知体验。
129.例如,本实施例该步骤中选择游戏中该虚拟角色

xxxx

面部的颧骨部位骨点作为关键点,其颧骨部位关键骨点圆形标记点处于放大显示,通过自由滑上下动鼠标可调整该游戏虚拟角色的颧骨部位的高度,此时圆形标记点可放大显示关于细节调整的特征,同时虚拟角色的面部骨骼会随该颧骨骨点细节调整的变化而进行相应的改变,其对应区域的皮肤也会随之改变。在用户对该颧骨骨点的调整操作执行完毕后,通过点击图形用户界面上的确认按钮,该面部骨骼和该颧骨骨点自动实现隐藏,此时用户界面显示为该虚拟角色

xxxx

的目标虚拟面部模型。可选地,在本实施例中,上述虚拟面部模型处理可以但不限于应用于在任何类型的应用中根据骨骼透视方法进行虚拟角色面部模型处理的场景中。上述任何类型的应用可以但不限于包括:游戏应用,直播应用,多媒体应用,即时通信应用,社交应用,购物应用等等。比如:在社交应用中,根据用户上传或者选择的图像作为用户生成虚拟社交角色面部模型的场景,在直播应用中根据用户上传或者选择的图像为用户生成虚拟角色面部模型场景等等。
130.至此,本公开的第一实施例提供了一种虚拟面部模型处理方法,通过终端设备提
供图形用户界面。通过所述图形用户界面显示虚拟角色对应的初始虚拟面部模型;在所述图形用户界面的所述初始虚拟面部模型对应的区域显示面部骨骼;响应于对所述面部骨骼对应的交互区域的操控操作,获取所述操控操作对应的调整参数;根据所述调整参数,对所述面部骨骼进行调整,将所述初始虚拟面部模型调整至目标虚拟面部模型。实现了在虚拟面部模型处理过程中,获得一种能够便于用户感知修改部位对虚拟角色面部模型改造效果影响的处理方法,提升用户对模型修改部位影响效果感知,增加对修改部位的掌控力,提升虚拟角色目标虚拟面部模型获取效率。
131.进一步,本公开第二实施例提供一种与上述第一实施例对应的装置实施例,可以用于执行本公开方法实施例。对于本公开装置实施例中未披露的细节,请参考本公开方法实施例。
132.图7为本公开第二实施例提供的一种虚拟面部模型处理装置的结构示意图,如图7所示,本公开实施例的角色形象塑造系统的操控装置700包括:第一显示单元701、第二显示单元702、处理单元703、改造单元704。其中:
133.第一显示单元701,用于通过通过所述图形用户界面显示虚拟角色对应的初始虚拟面部模型。
134.第二显示单元702,用于在所述图形用户界面的所述初始虚拟面部模型对应的区域显示面部骨骼。
135.处理单元703,用于响应于对所述面部骨骼对应的交互区域的操控操作,获取所述操控操作对应的调整参数。
136.改造单元704,用于根据所述调整参数,对所述面部骨骼进行调整,将所述初始虚拟面部模型调整至目标虚拟面部模型。
137.在一个可选的实施方式中,所述面部骨骼被配置为响应,可通过第一调整操作调整其不透明度;或者,针对所显示的所述面部骨骼的关键点被配置为响应,可通过第一调整操作调整其不透明度。
138.在一个可选的实施方式中,所述面部骨骼对应的交互区域,包括如下形式中的至少一种:
139.设置在所述图形用户界面上的控制元件;
140.所述面部骨骼上显示的控制点;
141.所述初始虚拟面部模型上显示的所述面部骨骼;
142.所述初始虚拟面部模型上位于所述面部骨骼之外,能够影响所述面部骨骼的外控制点。
143.在一个可选的实施方式中,所述控制点,包括:
144.所述面部骨骼的关键点;或,
145.所述面部骨骼的非关键点。
146.在一个可选的实施方式中,所述响应于对所述面部骨骼对应的交互区域的操控操作,包括:
147.对所述面部骨骼的控制点进行选择;
148.响应于对所选择的所述面部骨骼控制点的操作,获取所述操控操作对应的调整参数。
149.在一个可选的实施方式中,所述方法还包括:
150.所述对所述面部骨骼的控制点进行选择的步骤执行后,若所选择的控制点为所述关键点,则所述面部骨骼其余的所述关键点被隐藏;
151.所述响应于对所选择的所述面部骨骼控制点的操作的步骤中,所述被选择的关键点被放大显示,以便于通过预定的操作方式进行所述调整。
152.在一个可选的实施方式中,所述方法还包括:
153.所述响应于对所选择的所述面部骨骼控制点的操作的步骤执行后,对所述面部骨骼和所述被选择的控制点进行隐藏。
154.在一个可选的实施方式中,所述获取所述操控操作对应的调整参数,包括:
155.获取所述被选择的控制点以及所述控制点控制的区域的变化方式参数,和变化幅度参数;
156.以及,根据所述面部骨骼的关键点之间的相对关系参数,获得与所述控制点具有关联关系的其他关键点的变化方式参数,和变化幅度参数。
157.在一个可选的实施方式中,所述将所述初始虚拟面部模型调整至目标虚拟面部模型,包括:
158.根据所述面部骨骼的调整,所述初始虚拟面部模型对应区域的表层组织进行适应性调整。
159.需要说明的是,虚拟面部模型处理装置中各模块/单元之间的信息交互、执行过程等内容,与本公开中图1至图6对应的各个方法实施例基于同一构思,具体内容可参见本公开前述所示的方法实施例中的叙述,此处不再赘述。
160.接下来介绍本公开第三实施例提供一种与上述实施例对应的电子设备实施例。
161.图8是为本公开第三实施例提供的电子设备的结构示意图,如图8所示,本公开的电子设备800、包括:处理器801和存储器802。所述处理器801和所述存储器802耦合;
162.处理器801控制执行设备的操作。具体的应用中,执行设备的各个组件通过总线系统耦合在一起,其中总线系统除包括数据总线之外,还可以包括电源总线、控制总线和状态信号总线等。但是为了清楚说明起见,在图中将各种总线都称为总线系统。
163.存储器802可以包括只读存储器和随机存取存储器,并向处理器801提供指令和数据。存储器802的一部分还可以包括非易失性随机存取存储器(non-volatilerandomaccessmemory,nvram)。存储器802存储有处理器和操作指令、可执行模块或者数据结构,或者它们的子集,或者它们的扩展集,其中,操作指令可包括各种操作指令,用于实现各种操作。
164.为便于对本实施例进行理解,本公开公开实施例所提供的虚拟面部模型处理方法,其执行主体一般为具有一定计算能力的计算机设备,该计算机设备例如包括:终端设备或服务器或其它处理设备,终端设备可以为用户设备(user equipment,ue)、移动设备、用户终端、终端、手持设备、计算设备、车载设备、可穿戴设备等。在一些可能的实现方式中,该虚拟面部模型处理方法可以通过处理器调用存储器中存储的计算机可读指令的方式来实现。
165.本公开第四实施例提供一种与上述实施例对应的存储介质实施例,其上存储有一条或多条计算机指令;该些指令被处理器执行以实现上述第一实施例所述的方法。
166.图9是为本公开第四实施例提供的存储介质的结构示意图,如图9所示,本公开的存储介质900、包括:计算机可读存储介质901和处理器902。计算机可读存储介质901包括计算机指令,计算机指令在被处理器902执行时用于实现本公开实施例中任意一种虚拟面部模型处理方法的技术方案。
167.在一个典型的配置中,计算设备包括一个或多个处理器(cpu)、输入/输出接口、网络接口和内存。
168.内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(ram)和/或非易失性内存等形式,如只读存储器(rom)或闪存(flash ram)。内存是计算机可读介质的示例。
169.1、计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(pram)、静态随机存取存储器(sram)、动态随机存取存储器(dram)、其他类型的随机存取存储器(ram)、只读存储器(rom)、电可擦除可编程只读存储器(eeprom)、快闪记忆体或其他内存技术、只读光盘只读存储器(cd-rom)、数字多功能光盘(dvd)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括非暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
170.2、本领域技术人员应明白,本公开的实施例可提供为方法、系统或计算机程序产品。因此,本公开可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本公开可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、cd-rom、光学存储器等)上实施的计算机程序产品的形式。
171.本发明虽然以较佳实施例公开如上,但其并不是用来限定本发明,任何本领域技术人员在不脱离本发明的精神和范围内,都可以做出可能的变动和修改,因此本发明的保护范围应当以本发明权利要求所界定的范围为准。

技术特征:
1.一种虚拟面部模型处理方法,其特征在于,通过终端设备提供图形用户界面,包括:通过所述图形用户界面显示虚拟角色对应的初始虚拟面部模型;在所述图形用户界面的所述初始虚拟面部模型对应的区域显示面部骨骼;响应于对所述面部骨骼对应的交互区域的操控操作,获取所述操控操作对应的调整参数;根据所述调整参数,对所述面部骨骼进行调整,将所述初始虚拟面部模型调整至目标虚拟面部模型。2.根据权利要求1所述的虚拟面部模型处理方法,其特征在于,所述面部骨骼被配置为响应第一调整操作调整不透明度;或者,所述面部骨骼的关键点被配置为响应,第一调整操作调整不透明度。3.根据权利要求2所述的虚拟面部模型处理方法,其特征在于,所述面部骨骼对应的交互区域,包括如下形式中的至少一种:设置在所述图形用户界面上的第一控制元件;所述面部骨骼上显示的控制点;所述初始虚拟面部模型上显示的所述面部骨骼;所述初始虚拟面部模型上位于所述面部骨骼之外,能够影响所述面部骨骼的外控制点。4.根据权利要求3所述的虚拟面部模型处理方法,其特征在于,所述控制点,包括:所述面部骨骼的关键点;或,所述面部骨骼的非关键点。5.根据权利要求4所述的虚拟面部模型处理方法,其特征在于,所述响应于对所述面部骨骼对应的交互区域的操控操作,包括:对所述面部骨骼的控制点进行选择;响应于对所选择的所述面部骨骼控制点的操作,获取所述操控操作对应的调整参数。6.根据权利要求5所述的虚拟面部模型处理方法,其特征在于,所述方法还包括:所述对所述面部骨骼的控制点进行选择的步骤执行后,若所选择的控制点为所述关键点,则所述面部骨骼其余的所述关键点被隐藏;所述响应于对所选择的所述面部骨骼控制点的操作的步骤中,所述被选择的关键点被放大显示,以便于通过预定的操作方式进行所述调整。7.根据权利要求5所述的虚拟面部模型处理方法,其特征在于,所述方法还包括:所述响应于对所选择的所述面部骨骼控制点的操作的步骤执行后,对所述面部骨骼和所述被选择的控制点进行隐藏。8.根据权利要求5所述的虚拟面部模型处理方法,其特征在于,所述获取所述操控操作对应的调整参数,包括:获取所述被选择的控制点以及所述控制点控制的区域的变化方式参数,和变化幅度参数;以及,根据所述面部骨骼的关键点之间的相对关系参数,获得与所述控制点具有关联关系的其他关键点的变化方式参数,和变化幅度参数。9.根据权利要求1所述的虚拟面部模型处理方法,其特征在于,所述将所述初始虚拟面
部模型调整至目标虚拟面部模型,包括:根据所述面部骨骼的调整,所述初始虚拟面部模型对应区域的表层组织进行适应性调整。10.一种虚拟面部模型处理装置,其特征在于,包括:第一显示单元,用于通过通过所述图形用户界面显示虚拟角色对应的初始虚拟面部模型;第二显示单元,用于在所述图形用户界面的所述初始虚拟面部模型对应的区域显示面部骨骼;处理单元,用于响应于对所述面部骨骼对应的交互区域的操控操作,获取所述操控操作对应的调整参数;改造单元,用于根据所述调整参数,对所述面部骨骼进行调整,将所述初始虚拟面部模型调整至目标虚拟面部模型。11.一种电子设备,其特征在于,包括:存储器和处理器、所述存储器和所述处理器耦合;所述存储器用于存储一条或多条计算机指令;所述处理器用于执行一条或多条计算机指令,以实现如权利要求1-9任意一种技术方案所述的方法。12.一种计算机可读存储介质,其上存储有一条或多条计算机指令,其特征在于,该指令被处理器执行以实现如权利要求1-9任意一种技术方案所述的方法。

技术总结
本公开涉及一种虚拟面部模型处理方法,通过终端设备提供图形用户界面,所述方法包括:通过图形用户界面显示虚拟角色对应的初始虚拟面部模型;在图形用户界面的初始虚拟面部模型对应的区域显示面部骨骼;响应于对面部骨骼对应的交互区域的操控操作,获取操控操作对应的调整参数;根据调整参数,对面部骨骼进行调整,将初始虚拟面部模型调整至目标虚拟面部模型。本公开的虚拟面部模型处理方法,利用在初始虚拟面部模型对应区域的显示面部骨骼,通过面部骨骼对应的交互区域的操控操作,在面部骨骼的调整过程中能够有效提升用户对面部区域修改部位影响效果感知,增加用户对修改部位的掌控力,进而实现目标虚拟面部模型的塑造。进而实现目标虚拟面部模型的塑造。进而实现目标虚拟面部模型的塑造。


技术研发人员:赵琦涛
受保护的技术使用者:网易(杭州)网络有限公司
技术研发日:2022.06.15
技术公布日:2022/11/1
转载请注明原文地址: https://tieba.8miu.com/read-11265.html

最新回复(0)