机器之心报道作者:杜伟、陈萍Anthropic发现一种新型越狱漏洞并给出了高效的缓解方案,可以将攻击成功率从61%降至2%。刚刚,人工智能初创公司Anthropic宣布了一种「越狱」技术(Many-shotJailbreaking)——这种技术可以用来逃避大型语言模型(LLM)开发人员设置的安全护栏。
ClaudeGPT-4LLaMA大语言模型人工智能
机器之心Pro 2024-04-03
MediaTek宣布利用Meta新一代开源大语言模型(LLM)Llama 2以及MediaTek先进的AI处理器(APU)和完整的AI开发平台(NeuroPilot),建立完整的终端侧AI计算生态,加
LLaMA大语言模型生成式AI
英飞凌科电子元器件 2024-04-02
前言 在人工智能领域,大型语言模型(LLM)的研发一直是技术竞争的前沿。最近,Databricks公司推出的DBRX模型,以其1320亿参数的规模和创新的细粒度MoE(混合专家)架构,成为开源社区的焦
人工智能ChatGPTLLaMA大语言模型
努力犯错玩AI 2024-04-02
1. 背景 根据本qiang~最新的趋势观察,基于MoE架构的开源大模型越来越多,比如马斯克的Grok-1(314B), Qwen1.5-MoE-A2.7B等,因此想探究一下MoE里面的部分细节。 此文是本qiang~针对大语言模型的MoE的整理,包括原理、流程及部分源码。 2. MoE原理 MoE的流行源于”欧洲的OpenAI” Mistral AI发布的论文及模型《Mixtral of Experts》,评测集上的效果吊打众多开源模型,如Llama 2 70B和GPT3.5。 《Mixtral of
马斯克大语言模型LLaMA
mengrennwpu 2024-04-02
Meta日前推出两个功能强大的GPU集群,用于支持下一代生成式AI模型的训练,包括即将推出的Llama 3。
英伟达生成式AILLaMA
极客网 2024-04-01
3月27日,美国数据和人工智能公司Databricks宣布开源MosaicResearch团队主导开发的通用混合专家(MoE)大语言模型DBRX。DBRX在语言理解、编程、数学和逻辑等方面表现卓越,不仅在性能上超过了开源大模型Llama2、Mixtral以及马斯克新开源的Grok-1,而且在多项评分上已经逼近GPT-4。
人工智能LLaMA大语言模型
钛媒体APP 2024-03-29
2024年3月18日,高通技术公司今日宣布推出第三代骁龙®8s移动平台,为更多Android旗舰智能手机带来骁龙8系平台上最广受欢迎的特性,实现非凡的顶级移动体验。这款全新旗舰级平台的主要特性包括支持强大的终端侧生成式AI功能、始终感知的ISP、超沉浸的移动游戏体验、突破性连接能力和无损的高清音频。该平台支持广泛的AI模型,包括目前主流的Baichuan-7B、GeminiNano、Llama 2和智谱ChatGLM等大语言模型。
生成式AILLaMA大语言模型ChatGLM
科技视讯 2024-03-29
据称,Fancytech面向电商客户的AIGC需求,使用基于LLaMA模型调参的FancyGPT,全链路自训练大模型,其图生视频能达到专业的广告质量,并且能做到激光扫描对商品进行3D建模,通过AI生成高质量品…
AIGCLLaMA
创业邦 2024-03-28
1000万美元!这家美国创企“烧出”最强开源大模型 能力号称接近GPT-4 划重点: 1 Databricks发布开源大语言模型DBRX,吊打Llama 2-70B和Grok-1。
GPT-4大语言模型LLaMA
腾讯科技 2024-03-28
近期,我们正式宣布推出 DGX 云端训练 (Train on DGX Cloud) 服务,这是 Hugging Face Hub 上针对企业 Hub 组织的全新服务。通过在 DGX 云端训练,你可以轻松借助 NVIDIA DGX Cloud 的高速计算基础设施来使用开放的模型。这项服务旨在让企业 Hub 的用户能够通过几次点击,就在Hugging Face Hub中轻松访问最新的 NVIDIA H100 Tensor Core GPU,并微调如 Llama、Mistral 和 Stable Diffusi
Hugging FaceLLaMA
HuggingFace 2024-03-21
Copyright © 2024 aigcdaily.cn 北京智识时代科技有限公司 版权所有 京ICP备2023006237号-1