导航菜单

戴尔宣布针对Llama生态系统优化的标准化AI解决方案

导读 戴尔科技宣布支持针对Llama 生态系统优化的标准化 AI 解决方案。这些解决方案旨在简化 AI 应用程序的开发并提升基于代理的工作流程的...

戴尔科技宣布支持针对Llama 生态系统优化的标准化 AI 解决方案。这些解决方案旨在简化 AI 应用程序的开发并提升基于代理的工作流程的能力。

带有 Llama 生态系统的戴尔 AI 解决方案旨在简化开发人员体验并提高 AI 应用程序的效率。标准化软件框架 Llama Stack 支持 AI 开发的多个阶段,包括模型训练、微调和生产部署。它现在与 PyTorch 库紧密集成,促进检索增强生成 (RAG) 和其他 AI 应用程序的无缝部署。

将 Llama Stack 与 Dell AI Factory 相结合,组织可以利用配备 NVIDIA GPU 的Dell PowerEdge XE9680服务器支持的企业级基础设施。此参考架构提供可扩展性和性能,使开发基于代理的 AI 应用程序变得更加容易。

该架构提供标准化 API,通过促进代码重用和为当前和未来的 Llama 模型启用即插即用功能来简化开发。内置安全功能的安全部署可确保 AI 应用程序合规且受到保护。戴尔的 Adaptable 基础设施支持多种 AI 用例,从单节点推理到多节点部署。

这些功能使企业能够实施涉及多个模型和内存库协同工作以解决复杂业务挑战的工作流程。与 Llama Stack 集成的参考架构简化了推理、RAG 和合成数据生成等任务的执行,而 Llama Guard 模型则建立了安全措施和护栏以增强安全性。

赋能数据科学家和开发人员

开发 AI 应用程序面临诸多挑战,包括成本高、可扩展性问题以及难以获得必要的资源。选择合适的架构以及集成和维护 AI 系统至关重要。戴尔的 Llama AI 解决方案旨在缓解这些挑战,并使数据科学家、开发人员和 IT 决策者受益。

该参考架构提供了在 PowerEdge XE9680 服务器上部署 Llama 模型的详细指南,并提供了经过验证的工作流程和示例代码以加快开发速度。

Dell AI Factory 经过验证的配置简化了数据中心中 AI 解决方案的安装,提供了跨多个节点的可扩展性,并由定制部署服务支持。

带有 Llama 的戴尔 AI 解决方案让开发人员能够使用标准化构建块快速采用新的 AI 模型、工具和框架,确保代码可在不同环境中移植。它通过 Dell Data Lakehouse 和 PowerScale 平台简化了数据管道。此外,Llama 模型可通过 Hugging Face 平台在戴尔的企业中心上使用。这些模型是预先打包的、可立即部署的容器和脚本,可实现安全高效的部署。

戴尔还提供部署 Llama 模型、支持策略、数据准备、模型实施和生成 AI 结果的服务。

Llama 3.2 简介:解锁多模态智能

Llama 3.2 的发布代表了 AI 技术的重大进步,为开发者提供了创建新一代私密、高效且负责任的 AI 体验的工具。Llama 3.2 包含 1B 到 90B 参数的多语言模型,能够处理文本和图像输入。这些模型(包括轻量级纯文本选项(1B 和 3B)和视觉 LLM(11B 和 90B))支持长上下文长度,并使用高级查询注意机制针对推理进行了优化。

Llama 3.2 的 11B 和 90B 模型提供图像推理功能,包括文档级理解,例如解释图表和图形以及添加图像字幕。这些模型还支持实时和批量推理,针对交互式和高吞吐量工作负载进行了优化。与戴尔的 AI Factory 解决方案集成后,这些模型使企业能够在许多应用中利用 AI,包括制造业中的缺陷检测、提高医疗保健中的诊断准确性以及改善零售库存管理。

免责声明:本文由用户上传,如有侵权请联系删除!

猜你喜欢:

最新文章: