证券之星消息,岩山科技(002195)03月10日在投资者关系平台上答复投资者关心的问题。
投资者:请介绍一下收购智驾最新进展情况和智驾公司目前技术开发及业务订单及完成的最新情况?谢谢!
岩山科技董秘:您好,感谢对公司的关注。公司拟控股企业Nullmax (Cayman) Limited主要从事汽车智能驾驶系统的研发,致力于打造全场景的无人驾驶应用。Nullmax纽劢作为一家专注于智能驾驶技术的科技公司,拥有丰富的技术经验和专业知识,其在计算机视觉、机器学习、感知技术、智能驾驶工程化等领域取得了显著的成就。Nullmax已有的项目落地客户包括上汽、奇瑞、经纬恒润、德赛西威等,与头部车企合作推进顺利,同时正在推进软硬件一体化项目,为未来取得更多量产定点合同提供有力保障。公司拟增资并收购Nullmax (Cayman) Limited部分股权的事项目前正在向商委、外汇管理局等主管部门办理境外投资ODI审批手续,相关项目的进展请以公司公告为准。谢谢。
投资者:非常高兴获悉中国独具创新的Yan大模型!该模型何时能够提供公测?现在大模型的accuracy(准确度)数据如何?Yan2.0何时推出?谢谢!
岩山科技董秘:您好,感谢对公司的关注。Yan 1.0模型尚未完成大模型备案,目前主要尝试针对B端客户进行本地私有化部署,暂时无法提供公测,敬请谅解。我们对相同参数量级的Yan 1.0模型和基于Transformer(对照实验中采用的Transformer是基于HuggingFace LLaMA 2的标准结构,同时开启了flash-attn的支持)架构模型分别用1,000万条中英平行语料,基于同样软硬件环境的NVIDIA A800服务器训练3个Epoch,从训练结果来看,在对照实验环境下Yan 1.0模型比Transformer架构的LLaMA 2模型在训练集(即模型学习过的数据)上的预测准确率高出17%、在验证集(即模型未学习过的数据)上的预测准确率高出13%。岩芯数智团队目前正在研发Yan 2.0模型,Yan 2.0模型将会融合文字、音频、视频等多模态,以应用于更广泛的业务。Yan 2.0模型预计将于2024年下半年推出,具体推出时间请以后续岩芯数智的发布为准。公司提醒投资者警惕市场热点炒作,理性投资并注意投资风险。谢谢。
投资者:董秘您好!请介绍一下公司子公司的Yan模型1.1在训练效率、推理、记忆能力、算力消耗、显存占用及成本方面的情况如何? 正在研究的Yan1.2具体有哪些枝术特点?目前研究的进度如何?预计何时能发布?谢谢啦!
岩山科技董秘:您好,感谢对公司的关注。岩芯数智于2024年1月发布了Yan 1.0模型,计算复杂度从标准Attention机制的O(n^2∙d)(其中n表示序列长度、d表示特征维度,^2指平方)降低为O(n∙d)(线性复杂度),从而提高模型的训练效率和收敛速度,因此Yan 1.0模型产生的资源消耗更低,更加经济、更加低碳。我们对相同参数量级的Yan 1.0模型和Transformer(对照实验中采用的Transformer是基于HuggingFace LLaMA 2的标准结构,同时开启了flash-attn的支持)架构模型分别用1,000万条中英平行语料,基于同样软硬件环境的NVIDIA A800服务器训练以及同样的迭代次数下进行了对照试验:(1)训练效率方面,在上述对照实验环境下Yan 1.0模型的损失值要低于Transformer架构的LLaMA 2模型。在训练集上,训练数据收敛到相同的loss(loss=3.0)时,Yan 1.0模型仅需要1.5小时,而LLaMA 2模型却花费10.5小时,因此Yan 1.0模型的训练效率更高。(2)推理准确率方面,在上述对照实验环境下Yan 1.0模型比LLaMA 2模型在训练集上的预测准确率高出17%、在验证集上的预测准确率高出13%。(3)记忆能力方面,古诗是通过简短的字和词语表达丰富语境的一种体裁,token之间的困惑度也高于现代文,这恰好可用于评测模型的记忆能力。在对照实验中分别用数十万条古诗数据进行续写训练,与LLaMA 2模型相比,Yan 1.0能够更快的达到更好的收敛,以及更高的准确率。(4)显存占用方面,基于同样的参数量级在单张NVIDIA RTX 4090 24G显卡上,当输出token的长度超出2,600时,LLaMA 2模型会出现显存不足,进而无法完成推理;Yan 1.0模型的显存使用始终稳定在14G左右,可以进行正常推理。Yan 1.0模型的显存占用及成本比LLaMA 2模型更低。岩芯数智团队目前正在研发Yan 2.0模型,Yan 2.0模型将会融合文字、音频、视频等多模态,以应用于更广泛的业务。Yan 2.0模型预计将于2024年下半年推出,具体推出时间请以后续岩芯数智的发布为准。公司提醒投资者警惕市场热点炒作,理性投资并注意投资风险。谢谢。
投资者:目前最新的股东数是多少?
岩山科技董秘:您好,感谢对公司的关注。公司将在定期报告中披露对应时点的股东信息,敬请关注。谢谢。
投资者:请问; Yan 2.0计划何时推出?是否具有文生视频功能?谢谢
岩山科技董秘:您好,感谢对公司的关注。岩芯数智团队目前正在研发Yan 2.0模型,Yan 2.0模型将会融合文字、音频、视频等多模态,以应用于更广泛的业务。Yan 2.0模型预计将于2024年下半年推出,具体推出时间请以后续岩芯数智的发布为准。公司提醒投资者警惕市场热点炒作,理性投资并注意投资风险。谢谢。
投资者:贵公司Yao2.0的研发有什么进展?是多模态的吗?
岩山科技董秘:您好,感谢对公司的关注。岩芯数智团队目前正在研发Yan 2.0模型,Yan 2.0模型将会融合文字、音频、视频等多模态,以应用于更广泛的业务。Yan 2.0模型预计将于2024年下半年推出,具体推出时间请以后续岩芯数智的发布为准。公司提醒投资者警惕市场热点炒作,理性投资并注意投资风险。谢谢。
投资者:请问非attention机制大模型通俗的说是啥意思?
岩山科技董秘:您好,感谢对公司的关注。Attention机制是一种能让模型对关键信息重点关注并充分学习吸收的技术,也就是把注意力集中放在重要的点上,而忽略其他不重要的因素。ChatGPT等都利用了Transformer架构,其核心技术之一就是Attention机制。标准的Attention机制的计算复杂度为O(n^2∙d)(其中n表示序列长度、d表示特征维度,^2指平方)。标准Attention机制的复杂度随序列长度呈2次方增长。通常来说Transformer架构具有训练周期较长、应用成本过高、高机器幻觉表达等缺陷,在实际应用中需要的高算力和高成本让不少中小型企业望而却步。针对Transformer架构的上述缺陷、以及不同行业对于高效能、低能耗AI大模型需求的不断增长,公司旗下岩芯数智研发团队意识到从零开始设计大模型的必要性,并推出了国内首个非Attention机制大模型—Yan 1.0模型。Yan架构没有基于Attention机制,也没有基于RNN(指Recurrent Neural Network,循环神经网络)等序列模型,而是通过完全自研的记忆算子及特征关联函数,将计算复杂度从标准Attention机制的O(n^2∙d)降低为O(n∙d)(线性复杂度),从而提高了Yan架构模型的训练效率和收敛速度。谢谢。
投资者:公司近日在介绍类脑大模型时说,有关技术还在研究之中,尚未产生收入。公司董事长先生,现在新科技更新换代周期越来越短,请问贵公司类脑人机接口等新科技,估算何时能出科研成果?今年年底能产生效益吗?
岩山科技董秘:您好,感谢对公司的关注。岩思类脑研究院的脑电大模型目前尚处于研究阶段,尚未产生营业收入。科研成果推出时间请以后续岩思类脑的发布为准。同时公司提醒投资者警惕市场热点炒作,理性投资并注意投资风险。谢谢。
投资者:请问贵公司目前涉及芯片半导体业务吗?
岩山科技董秘:您好,感谢对公司的关注。公司的主营业务包括互联网信息服务业务、人工智能业务和多元投资业务,不涉及芯片半导体业务。谢谢。
以上内容由证券之星根据公开信息整理,由算法生成,与本站立场无关。证券之星力求但不保证该信息(包括但不限于文字、视频、音频、数据及图表)全部或者部分内容的的准确性、完整性、有效性、及时性等,如存在问题请联系我们。本文为数据整理,不对您构成任何投资建议,投资有风险,请谨慎决策。