可能是人工智能也没遇到此类问题,竟然罕见地给出了一个“等待-授权”选项,要知道平时,几乎没有什么问题能难倒它。

    青姑放下手机,忍不住紧张起来,心跳加速,很怕得到失望的回复。

    范阳劝解一句,“青姑,你放心吧,数字集团的技术很强大,一定能帮你实现愿望的。”

    青姑闻言,勉强笑了一下,没有说什么。

    三人相顾无言,静静等待起来。

    赵子明看到智能终端传递过来的“ai造人计划”,一时间也有点迟疑不定。

    单从技术角度考虑,在足够的语料数据和算法的加持下,通过目前的语音合成技术,“复制”一个虚拟人的难度并不大。

    虽然可用语料不足,思思生前留下的语音素材并不多,而且能提供的多是用智能手机录下的视频,大多环境嘈杂。毕竟,没有人会提前把自己置于完全的数字化环境中。

    但是,对于数字集团来说,要实现人工合成,并不需要给算法提供大量可供训练的素材,蓝色大脑实验室早已经实现了“少样本学习”(fewshotlearng),能用更少的数据,学会更强大的技能。

    目前机器学习的方法,主要是拿大量的数据来进行训练。比如说,想开发一个智能语音识别系统,至少要拿出10小时的语音素材来训练人工智能,也就是说,训练素材和数据的量越大、花的时间越长,机器学习的效果就越明显,这是全球机器学习的主流。

    但是,这显然不是一个最高效的学习途径。

    蓝色大脑实验室发现,其实只要找对了方法,哪怕只用小规模的数据,也能获得有价值的结果。比如说,训练一个图像识别系统,不需要再拿上亿张图片来做训练素材,只用1000张图片也能达到预期的效果,这就大大节约了时间和成本,也和其他国家和公司的技术拉开了差距。

    “少样本学习”作为数字集团的秘密武器,早已经被实验所论证,应用到思思这里,恰到好处。

    赵子明担心的是,对“ai女儿”认知上的担忧。当妈妈问出一个问题,“ai女儿”是否能够以女儿的认知水平和价值观来回答,在这方面,技术难度较大。

    现在市面现有的语音助手,例如siri和天猫精灵,当输入的语言超过ai的理解范围时,它的设定是去网络检索一个最接近的回答进行反馈,这就存在很大的不可控性。

    而蓝色大脑推出来的小智音箱,是通过“自监督学习”(self-supervisedlearng)和“因果学习”(establishcaalretionshipsbeees)两种方式来应对的,既让人工智能自己来掌握事物的运作规律,学会建立因果关系,遇到不会的问题,能够给出自我判断。

    如果要为这位妈妈做出的“ai女儿”,难免会会存在回应的随机性,这很有可能在某些情况下冒犯到她和她的家人。

    对于人工智能来说,并没有自身的道德感,可能你问它一个很平常的问题,它就会给出毁三观的答案。

    不过思考了半天,赵子明还是决定同意这件事,一方面是为了满足这位妈妈的情感需求,另一方面也是借此实验一下市场,毕竟国家太大,人口太多,失独的家庭不在少数,如果能给他们一点心理上慰藉,也算是赵子明做的一点小事。

    对于数字集团来说,这也是一次不小的改变,相当于普遍与特殊的区别,之前的人工智能基本上都是为了某个行业所创造的,现在专注于某个人,专注于情感需求,技术上不成问题,但由此带来的影响深远。

    他为伏羲智能设定的进化方向是“纯粹理性”,那“ai女儿”自然不会改变这个原则,正好可以试验一下在“纯粹理性”的支配下情感的运行模式。