在人工智能的不断进化中,多模态大模型的发展备受关注。尤其是Llama-3.2,这一模型通过借鉴Stable ...
IT之家获悉, 系列模型基于 Meta Llama 3.2 语言模型打造而成 ,主打繁体中文处理能力,同时支持多模态输入和函数调用,能够识别图像并调用外部工具。 在繁体中文处理能力方面,联发科提供的对比显示,相较于参数量相同的 Llama 3.2 3B Instruct 模型,Llama-Breeze2-3B 在撰写关于台北夜市的小短文时,能够准确列举出士林夜市、饶河街夜市和罗东夜市等当地知名夜市 ...
结果显示,只有70亿参数的Qwen2.5-7B,在经过5K个逻辑问题的训练后,就发展出了一些在逻辑语料库中原本不存在的高级推理技能——如反思、验证和总结能力。 问题:一个非常特殊的岛屿上只住着骑士和骗子。骑士总是说真话,骗子总是说谎。你遇到两位岛民:Zoey和Oliver。Zoey说:「Oliver不是骑士。」Oliver说:「Oliver是骑士且Zoey是骗子。」请问,谁是骑士,谁是骗子?
VideoRoPE团队 投稿量子位 | 公众号 QbitAI Llama都在用的RoPE(旋转位置嵌入)被扩展到视频领域,长视频理解和检索更强了。 复旦大学、上海AI实验室等提出VideoRoPE,并确定了将RoPE有效应用于视频所需的四个关键特性。 在长视频检索、视频理解和视频幻觉等各种下游任务中,VideoRoPE始终优于先前的RoPE变体。 用三维结构保留时空关系 RoPE是一种能够将相对位 ...
Meta 于本周二宣布将举办有史以来第一次专门针对生成式人工智能的开发会议。该会议以 Meta 的生成式 AI 模型 Llama 系列命名,名为 LlamaCon,计划于 4 月 29 日举行。 Meta公司表示,它将在会上分享"[其]开源人工智能开发的最新进展,以帮助开发人员[......]构建令人惊叹的应用程序和产品"。Meta 表示,更多细节将很快公布。 该公司的年度开发者大会"Meta C ...
DeepSeek团队最新研究,利用300多万个实例,将代码转换成思考过程,构建出数据集CODEI/O,对Qwen、Llama等模型进行了训练。 用 ...
品玩2月20日讯,据 MarketChpost 报道,微软研究院、马里兰大学、威斯康星大学麦迪逊分校 KAIST 和华盛顿大学的研究人员宣布推出基础大模型 Magma。 Magma 的设计旨在克服现有 VLA ...