当前位置:首页|资讯|ChatGPT|人工智能

日媒:ChatGPT不好用,日企竞相开发日语版AI

作者:参考消息发布时间:2024-01-31

原标题:日媒:ChatGPT不好用,日企竞相开发日语版AI

参考消息网1月31日报道据日本《朝日新闻》1月27日报道,越来越多的日本企业开始参与到由美国信息技术巨头引领的生成式人工智能(AI)研发竞争中来。日本电气公司(NEC)和日本电信电话公司(NTT)接连研发出作为对话型AI基础的大规模语言模型(LLM),但与美国企业庞大且以英语为主的模型不同,日本企业正在从小型化与擅长处理日语数据的角度觅得商机。

报道称,NEC在去年12月的生成式AI战略发布会上公布了一款主要用于医疗领域的LLM,描绘出未来基于医生同患者的对话自动生成病例的服务。

“腮腺癌就是在唾液腺中发生的病变。”当医生使用专业术语解释病情时,医生的话瞬间就转变成了文字。

NEC在去年7月研发的LLM就是用于此类应用场景的。

其特点是显示LLM规模大小的“参数数量”很少。通常来说,参数数量越多性能越高,越能够理解复杂指令,但是耗电量也很大且使用成本不低。

NEC的模型只有130亿个参数,而研发聊天生成预训练转换器(ChatGPT)的美国开放人工智能研究中心(OpenAI)在2020年推出的LLM“GPT-3”的参数数量多达1750亿个。

小型化的LLM不仅运算设备较小,而且耗电量低,研发和使用成本都将得到压缩。引入这种模型的企业将不再需要通过云服务中介,由于运算设备的大小完全可以安装在公司内部,所以也降低了信息泄露的风险。

另一个优势在于处理日语的能力。无论是OpenAI还是谷歌,所有主要的海外LLM虽然也可以使用日语,但其大部分学习数据都来自英语,因此在处理一些日语特有的遣词造句之时就显得力不从心。NEC大幅增加学习数据中日语的占比,提高了基于日语特有的语言脉络和文化背景作答的能力。

NTT去年11月发布了能够学习日语数据的小型LLM“tsuzumi”,包含参数数量为70亿个的“轻量版”和6亿个参数的“超轻量版”两种模式。这两款模型计划于今年3月正式推出,超轻量版未来还可能内嵌于汽车导航设备和智能手机,无需联通网络便可驱动。

CyberAgent和Rinna等日本企业也纷纷推出了日语友好型LLM。(编译/刘林)


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1