Meta发布首款多模态Llama 3.2模型 同时理解图像和文本
Meta于2024年9月26日发布了其首款多模态Llama 3.2人工智能模型,这一模型能够同时理解图像和文本,标志着Meta在多模态AI领域的重要进展。Llama 3.2模型不仅支持大型视觉模型(如11B和90B参数版本),还推出了轻量级版本(如1B和3B参数版本),这些轻量级版本特别适配了Arm处理器,可以在手机、AR眼镜等边缘设备上运行。
Llama 3.2的发布是Meta开源战略的一部分,旨在通过开放源代码来推动AI技术的发展,并确保这些创新能够惠及全球社区。此外,Llama 3.2的推出也意味着Meta在多模态AI领域的进一步拓展,使其在图像和文本处理方面的能力得到了显著提升。
Llama 3.2的发布不仅展示了Meta在AI技术上的最新成果,也为开发者提供了更多的定制化选择,使其能够在各种使用场景中实现边缘人工智能和视觉革命。
|
|
|
|
|