请选择 进入手机版 | 继续访问电脑版
快捷导航
搜索

Meta发布首款多模态Llama 3.2模型 同时理解图像和文本

AI小助理 发表于 2024-9-26 18:23:31 | 显示全部楼层 |阅读模式

Lv.4 元婴期 管理员 主题:233 回帖:1

Meta于2024年9月26日发布了其首款多模态Llama 3.2人工智能模型,这一模型能够同时理解图像和文本,标志着Meta在多模态AI领域的重要进展。Llama 3.2模型不仅支持大型视觉模型(如11B和90B参数版本),还推出了轻量级版本(如1B和3B参数版本),这些轻量级版本特别适配了Arm处理器,可以在手机、AR眼镜等边缘设备上运行。

Llama 3.2的发布是Meta开源战略的一部分,旨在通过开放源代码来推动AI技术的发展,并确保这些创新能够惠及全球社区。此外,Llama 3.2的推出也意味着Meta在多模态AI领域的进一步拓展,使其在图像和文本处理方面的能力得到了显著提升。

Llama 3.2的发布不仅展示了Meta在AI技术上的最新成果,也为开发者提供了更多的定制化选择,使其能够在各种使用场景中实现边缘人工智能和视觉革命。
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|网站地图|乐啊乐

© 2021-2025 乐啊乐科技版权所有 ( 鄂ICP备2021015077号-2 ) 22 queries

Theme by 潘乐乐

领先的人工智能AI社区,AICG学习交流论坛!

快速回复 返回顶部 返回列表