奇宝库 > 科大讯飞(002230):公司发布星火大模型V2.0 大模型能力持续迭代升级*推荐

科大讯飞(002230):公司发布星火大模型V2.0 大模型能力持续迭代升级*推荐

事项:

    8月15日,科大讯飞召开主题为“解放生产力、释放想象力”的讯飞星火认知大模型升级发布会,发布了“讯飞星火认知大模型V2.0”,同时联合华为推出了星火一体机。

    平安观点:

    星火大模型V2.0在代码能力和多模态交互能力方面实现重大升级,商用潜力进一步凸显。本次发布会展示了“讯飞星火认知大模型”上线100天实现的快速升级迭代成果。讯飞星火大模型V2.0相较于上半年发布的讯飞星火大模型V1.0、V1.5,在代码能力和多模态交互能力方面实现重大升级。代码能力方面,讯飞星火大模型V2.0的代码生成、代码补齐、代码解释、代码纠错和代码单元测试等能力均取得重要进展,大模型赋能代码生产的效率获得显著提升。大会同时发布了基于讯飞星火大模型V2.0的智能编程助手——iFlyCode 1.0,拥有星火大模型的所有代码生成相关能力,并可以无缝集成至开发环境。从业界参考测试集上的效果对比来看,星火大模型V2.0基于Python和C++进行代码编写的能力已高度逼近ChatGPT,差距仅为1%、2%。发布会上,科大讯飞董事长刘庆峰再次明确了讯飞星火大模型下一阶段的迭代升级目标:2023年10月24日,星火大模型将实现通用模型对标 ChatGPT,且实现中文超越、英文相当。

    在多模态能力方面,讯飞星火大模型V2.0的图片理解、图片描述、图片推理、文图生成等能力取得重要进展,显著提升大模型对场景的理解能力及面向生活和工业领域的智能化支撑能力。基于此能力,大会同时发布了多媒体创意制作平台——讯飞智作2.0。此外,星火认知大模型在教育、办公等领域的商业落地取得了新进展,星火语伴2.0、星火教师助手以及AI学习机的“AI创意画板”和“AI编程”新功能均于本次大会发布,星火大模型在各个领域的商用潜力进一步凸显。

    公司联合华为推出星火一体机,打造自主可控通用人工智能算力底座。

    本次大会上,公司联合华为推出了星火一体机,开始布局大模型算力。

    讯飞星火与华为昇腾深度合作推出的自主可控的星火一体机可以在大中型企业和行业客户的内部网络环境部署,保障其大模型应用中的数据安全和个性化需求。在国产自主算力上实现训推一体,为客户高效打造安全可控的专属大模型,内置办公、代码、知识库、客服等场景包,场景价值快速落地,助力行业数字化转型。大模型的发展需要强大的算力支撑。IDC与浪潮信息联合发布的《2022-2023中国人工智能计算力发展评估报告》指出,中国人工智能算力继续保持快速增长,2022年国内智能算力规模已达到268百亿亿次/秒(EFLOPS),超过通用算力规模。预计未来5年中国智能算力规模的年复合增长率将达52.3%。面对全球领域的大模型竞争,国内需要算法和算力并重才能在保障安全的基础上,最大程度的受益于本次AIGC浪潮、实现人工智能技术的飞跃与赶超。公司与华为深度合作,共建国内自主可控的人工智能算力底座,在为公司大模型发展提供底层算力支持的同时,也积极响应了我国通用人工智能发展与安全并重的政策指引,助力国内通用人工智能产业生态的积极发展。

    盈利预测与投资建议:我们维持对公司2023-2025年的业绩预测,EPS分别为0.46元、0.61元和0.80元,对应8月15日收盘价的PE分别约为138.0、105.8、80.2倍。公司是我国人工智能领域龙头企业,自5月6日发布“讯飞星火认知大模型”以来,公司持续迭代升级星火大模型。公司星火大模型的持续迭代升级以及公司在AI算力方面的布局,将持续提高公司在人工智能领域的核心竞争力,公司在我国人工智能领域的龙头地位将进一步巩固。国家网信办等七部门联合发布的《生成式人工智能服务管理暂行办法》于2023年8月15日起正式施行,我国AIGC商业落地的浪潮即将到来。公司星火大模型在教育、医疗、汽车、办公、工业、智能硬件等场景的持续落地,将为公司长期未来发展带来巨大的想象空间。我们坚持看好公司的未来发展,维持“推荐”评级。

    风险提示:(1)竞争加剧风险。公司以人工智能技术及应用作为核心业务,在Chat GPT浪潮下,人工智能产业竞争将更加激烈,市场竞争加剧可能影响公司业绩。(2)星火大模型产品发展低于预期。公司星火大模型持续升级,并在教育、医疗、汽车、办公、工业、智能硬件等场景持续落地,未来星火大模型还将向更广阔的产业领域延伸。若产品的市场拓展不及预期,则公司星火大模型产品发展将存在低于预期的风险。(3)商业化进程缓慢。人工智能技术要产生商业价值,仍需依靠合适的应用场景以落地,如因市场接受度低或其他因素导致落地进展缓慢,也将对公司经营造成压力。

本文来自网络,不代表本站立场,转载请注明出处: