当前位置:首页|资讯|微软|人工智能|生成式AI

活动预告|探索 LLM 大模型的小型化 —— 微软 Phi3在 NVIDIA Jetson 与 NIM 平台的最佳实践

作者:微软中国MSDN发布时间:2024-06-19

M

点击蓝字 / 微软开发者MSDN

关注我们

在当前高速发展的人工智能领域,如何高效的部署和优化 SLM (小型的大模型) 成为关键。随着微软 Phi-3 系列模型的发布,让 SLM 在 NVIDIA Jetson 边缘计算平台上的部署成为可能。同时 Phi-3 系列模型已在 NVIDIA NIM 平台提供加速的推理服务。

NVIDIA NIM 是一套用于部署 AI 模型的推理微服务,是一套易于使用的预构建容器工具。帮助企业客户加速在云、数据中心和工作站中部署生成式 AI 模型。让各类生成式 AI 模型的使用更为便捷和高效,为 AI 技术带来了新的突破和无限可能。

通过参加本次在线研讨会,您将了解到如何利用这些先进的模型和平台实现生成式 AI 的最佳实践,推动您的 AI 项目更上一层楼。

活动时间

2024 年 6月 25日(星期二)20:00 - 21:00

活动报名

扫描下方二维码报名本次在线研讨会

内容安排

主题一:

Phi-3 SLM 在 Jetson 边缘计算设备上的部署

>Phi-3 系列模型介绍

>Phi-3 与 Ollma 的结合使用

>Phi-3 模型在 Jetson 边缘计算设备上的部署实战

主题二:

Phi-3 SLM +NIM实现对话式 AI 场景中的应用

>NVIDIA NIM 介绍

>基于NIM 使用 Phi-3 对话模型的方法

>代码实践:Langchain 结合 NIM 实现 Phi-3 对话模型的推理

主题三:

Phi-3 - Vision 在 NIM 平台上实现多模态应用

>Phi-3 - Vision 简介

>Phi-3 - Vision 基于 NIM 的调用方式

>代码实践:基于 NIM 接口实现 Phi-3 - Vision 的推理实践

演讲嘉宾

卢建晖(Kinfey Lo)

微软高级云技术布道师

专注在人工智能及大数据领域,具备 15 年以上的电信,教育,金融服务行业经验。是微软 Build / Ignite / Teched 大会讲师,GitHub Copilot Workshop 讲师,Qcon 讲师,现负责生成式人工智能应用架构及 Microsoft Phi-3 小模型在行业中的应用落地工作。

李奕澎

NVIDIA 企业开发者社区经理

拥有多年数据分析建模、人工智能自然语言处理开发经验。在自动语音识别、自然语言处理、语音合成等对话式 AI 技术领域有丰富的实战经验与见解。曾开发法律、金融、保险文档中基于实体抽取的智能问答系统,曾开发基于 NLP 知识抽取,KG 知识图谱的建立的科研文档智能检索系统。

何琨

NVIDIA 企业开发者社区高级经理

拥有多年的 GPU 和人工智能开发经验。自 2017 年加入 NVIDIA 开发者社区以来,完成过上百场培训,帮助上万个开发者了解人工智能和 GPU 编程开发。在计算机视觉,高性能计算领域完成过多个独立项目。并且,在机器人和无人机领域,有过丰富的研发经验。对于图像识别,目标的检测与跟踪完成过多种解决方案。

主办方

微信公众号|微软开发者MSDN

新浪微博|微软中国MSDN

·END·


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1