资讯

Groq的131,000-token上下文窗口技术,直击AI应用中的一个关键痛点。传统推理服务商在处理大型文本数据时,往往面临速度和成本的双重压力。而Groq凭借其专为AI推理设计的语言处理单元(LPU)架构,显著提升了处理效率。据独立评测机构Artificial Analysis的数据,Groq在部署Qwen332B时,每秒能处理高达535个 ...
而Groq凭借其专为AI推理设计的语言处理单元(LPU)架构,显著提升了处理效率。 据独立评测机构Artificial Analysis的数据,Groq在部署Qwen332B时,每秒能处理高达535个token,轻松应对实时文档处理和复杂推理任务。 与Hugging Face的合作,为Groq带来了前所未有的开发者资源。
智东西6月17日消息,美国AI芯片创企Groq昨天宣布,其已正式成为Hugging Face Hub支持的推理服务提供商,推理服务已无缝集成至Hugging Face的JS和Python客户 ...
Groq的主要产品不是芯片,而是AI推理云服务和AI计算中心 Groq的LPU显然是它在技术上的核心竞争力,但它没有直接卖芯片或是卖计算主机,而是做了 ...
开源平台Hugging Face目前托管超50万个AI模型,月活跃开发者突破300万,已成为全球最大的开源AI模型社区。Groq作为首家高速推理供应商正式接入该平台 ...
这家公司2024年12月在沙特构建了由19000个Groq LPU(它旗下的AI芯片)组成的AI推理数据中心,仅花了8天时间就上线。而且在LEAP 2025大会上,Groq创始人兼 ...
关键时刻,以定制硬件闻名的 AI 初创公司 Groq 伸出了援手,为他提供了额外的计算资源,帮助 Scira 度过了难关。 此外,Groq 还提供了阿里巴巴 Qwen ...