
Llama 3.2 发布:首次引入多模态图像支持
在 Meta Connect 2024 活动上,Mark Zuckerberg 宣布了全新的 Llama 3.2 模型系列,在开源模型中首次引入了对多模态图像的支持。 Llama 3.2:针对设备本地任务优化 Llama 3.2 系列包含了...

在 Meta Connect 2024 活动上,Mark Zuckerberg 宣布了全新的 Llama 3.2 模型系列,在开源模型中首次引入了对多模态图像的支持。 Llama 3.2:针对设备本地任务优化 Llama 3.2 系列包含了...

英特尔近日发布了最新硬件,旨在强化 AI 基础设施,包括配备了性能核心(P-core)的 Xeon 6 和 Gaudi 3 AI 加速器。这些新品为企业提供了高性能、高性价比的 AI 扩展方案。 Xeon 6:为 AI 提供更强动力 Xeo...

在 Qwen2 发布后的过去三个月里,许多开发者基于 Qwen2 语言模型构建了新的模型,并为我们提供了宝贵的反馈。在这段时间里,我们专注于创建更智能、更博学的语言模型。今天,我们很高兴地向大家介绍 Qwen 家族的最新成员:Qwen2.5...

经过漫长的等待,OpenAI 终于在 ChatGPT 和 API 中推出了全新的 AI 模型——「o1」系列。这些新模型在生成回应前会进行更深层次的思考,在处理复杂任务时,尤其是在科学、编程和数学等领域上,展现了更强的推理能力,比之前的模型...

2024 年 3 月,Nvidia 推出了 NIM(Nvidia Inference Microservices)微服务平台,旨在加速生成式 AI 模型在云端、数据中心和工作站上的部署和使用。 本文将介绍 Nvidia NIM 的核心功能、...

微软刚推出了三款全新的 Phi-3.5 系列开源 AI 模型,包括 Phi-3.5-mini-instruct、Phi-3.5-MoE-instruct 和 Phi-3.5-vision-instruct。这些模型是对 Phi-3...

Alpaca 是一款专为 Linux 用户设计的图形界面应用,用于管理和对话 Ollama 中的本地 AI 模型。简单来说,它就是一个 Ollama 客户端管理工具,提供了一种直观、易用的方式来管理本地 AI 模型,,而且对小白用户非常友好...

为了探索实现人工智能所需的最小要素,微软训练并开源了 Phi-3 模型家族。这是微软目前最强大、最具成本效益的小型语言模型 (Small Language Model, SLM)。 与大型语言模型 (LLM) 相比,SLM 的参数量更少。例...

Azure AI 平台最近迎来了一位重量级新成员——GPT-4o mini。这个强大的 AI 模型不仅在智能程度上有了显著提升,还带来了一系列令人兴奋的新特性。 性能与成本的完美平衡 GPT-4o mini 在性能和成本效益方面都取得了重大...

Meta 推出了其迄今为止最大的开源 AI 模型——Llama 3.1,其中 405B 参数版本的性能甚至可以与 OpenAI、Anthropic 和 Google 等巨头的专有模型相媲美。如果你想亲身体验这个强大模型的能力,但又不想或无法...

AI CPU 就是集成了 NPU(神经处理单元)的专用处理器,专为在设备本地执行 AI 任务而设计。随着越来越多的设备开始采用 AI CPU,它们已经成为运行 Windows Copilot Runtime 和 Apple Intellig...

随着人工智能(AI)技术的蓬勃发展,催生了各种专门的硬件设计,以优化 AI 和神经网络的运算效率。在这些硬件加速器中,NPU(神经处理单元)和 GPU(图形处理单元)经常被拿来做对比,尤其是在加速 AI 任务方面。 接下来,我们将深入探讨 ...
最新评论
高质量答案
今日精彩瞬间等小程序添加选项为灰色,不能添加,这个是什么原因?
良心无网盘
edge取消云母后,谷歌接上来了,巨硬作为第一方丢脸不