算力指的是计算机系统处理数据和执行指令的能力,对于人工智能应用来说,需要大量的算力来处理复杂的数据和算法。人工智能芯片则是专门为人工智能任务设计的芯片,具有高效的并行计算能力和低能耗特性。每经网消息,孟菲斯“超算工厂”拥有10万块液冷H100GPU,在单个RDMA结构(即远程直接数据存取结构)上运行,是全球最大的超算集群。
GPT-4人工智能
前瞻网 2024-07-24
清华领衔发布多模态评估MultiTrust:GPT-4可信度有几何?机器之心2024-07-24 14:10发布于北京机器之心官方账号全文2995字,阅读约需9分钟,帮我划重点划重点01清华大学
清华GPT-4
机器之心 2024-07-24
美国太平洋时间7月23日,Meta(原名Facebook)正式发布其Llama3.1大模型,该模型共有8B、70B和405B三个尺寸,上下文长度都提升到了128K。
GPT-4
南方都市报 2024-07-24
大模型格局,再次一夜变天。Llama 3.1 405B重磅登场,在多项测试中一举超越GPT-4o和Claude 3.5 Sonnet。史上首次,开源模型击败当今最强闭源模型。小扎大胆豪言:开源AI必将胜出,就如Linux最终取得了胜利。
LLaMAGPT-4Claude
新智元 2024-07-24
北京时间7月24日,Meta正式发布Llama3.1开源大语言模型,提供8B、70B及405B参数版本。Meta称4050亿参数的Llama3.1-405B在常识、可引导性、数学、工具使用和多语言翻译等一系列任务中,可与GPT-4、GPT-4o、Claude3.5Sonnet等领先的闭源模型相媲美。
LLaMA大语言模型谷歌
极客公园 2024-07-24
最强开源大模型一夜封神!Llama 3.1震撼发布,真正的全民GPT-4时代来了智东西2024-07-24 08:15发布于云南智东西官方账号全文4023字,阅读约需12分钟,帮我划重点划重点0
LLaMAGPT-4
智东西 2024-07-24
榨干16000块H100、基于15亿个Tokens训练。
生成式AI一、马斯克搭建10万块液冷H100,完成全球最强AI训练集群!1.马斯克在美国孟菲斯使用10万块液冷H100GPU搭建了全球最强AI训练集群,采用单个RDMA结构;。2.马斯克的集群可能用于训练Grok3模型,与OpenAI的GPT-4相比,拥有更大的硬件规模;。
腾讯OpenAI生成式AI马斯克
腾讯研究院 2024-07-24
针对视觉-语言预训练(Vision-Language Pretraining, VLP)模型的对抗攻击,现有的研究往往仅关注对抗轨迹中对抗样本周围的多样性,但这些对抗样本高度依赖于代理模型生成,存在代
机器之心 2024-07-23
AI芯片产业受资本反噬,近期多个明星股回调。半导体设备股股价跌超10%,英伟达和超微半导体下挫近10%。OpenAI训练大模型GPT-4,需超10万枚H100芯片。半导体产业链存在敏感性,一旦有消息危及完整性,股价波动大。
AI芯片英伟达OpenAI
港股解码 2024-07-23
Copyright © 2024 aigcdaily.cn 北京智识时代科技有限公司 版权所有 京ICP备2023006237号-1