AI教程资讯
-
k1 视觉思考模型 – kimi推出的 k1 系列强化学习模型
发表时间:2025-01-09
k1 视觉思考模型是kimi推出的k1系列强化学习AI模型,原生支持端到端图像理解和思维链技术,将能力扩展到数学之外的更多基础科学领域。k1模型在图像理解、数学、物理、化学等学科的基准测试中表现优异,超过全球多个标杆模型(如OpenAI o1、GPT-4o以及 Claude 3 5 Sonnet)。k1 视觉思考模型能直接处理图像信息进行思考得出答案,无需借助外部OCR或视觉模型,提供完整的推理思维链,让用户看到模型思索答案的全过程。
【全文阅读】
-
FreeScale – 无需微调的推理框架,提升扩散模型生成能力首次实现8K分辨率图像
发表时间:2025-01-09
FreeScale是南洋理工大学、阿里巴巴集团和复旦大学推出无需微调的推理框架,提升预训练扩散模型生成高分辨率图像和视频的能力。FreeScale基于处理和融合不同尺度的信息,有效解决模型在生成超训练分辨率内容时出现的高频信息增加导致的重复模式问题。
【全文阅读】
-
Freestyler – 西工大联合微软和香港大学推出的说唱乐生成模型
发表时间:2025-01-09
Freestyler是西北工业大学计算机科学学院音频、语音与语言处理小组(ASLP@NPU)、微软及香港中文大学深圳研究院大数据研究所共同推出的说唱乐生成模型,能直接根据歌词和伴奏创作出说唱音乐。
【全文阅读】
-
SnapGen – Snap联合港科大等机构推出的移动端文生图模型
发表时间:2025-01-09
SnapGen是Snap Inc、香港科技大学、墨尔本大学等机构联合推出的文本到图像(T2I)扩散模型,能在移动设备上快速生成高分辨率(1024x1024像素)的图像,且只需1 4秒。模型用379M参数实现这一性能,显著减少模型大小和计算需求,同时在GenEval指标上达到0 66的高分,超越许多参数量更大的SDXL和IF-XL模型。
【全文阅读】
-
CosyVoice 2.0 – 阿里开源的语音生成大模型
发表时间:2025-01-09
CosyVoice 2 0 是阿里巴巴通义实验室推出的CosyVoice语音生成大模型升级版,模型用有限标量量化技术提高码本利用率,简化文本-语音语言模型架构,推出块感知因果流匹配模型支持多样的合成场景。CosyVoice 2 在发音准确性、音色一致性、韵律和音质上都有显著提升。
【全文阅读】
-
Megrez-3B-Omni – 无问芯穹开源的端侧全模态理解模型
发表时间:2025-01-09
Megrez-3B-Omni是无问芯穹推出的全球首个端侧全模态理解开源模型,能处理图像、音频和文本三种模态数据。Megrez-3B-Omni在多个主流测试集上展现出超越34B模型的性能,推理速度领先同精度模型达300%。
【全文阅读】
-
Veo 2 – 谷歌 DeepMind 推出的 AI 视频生成模型,支持高达 4K 分辨率
发表时间:2025-01-09
Veo 2 是 Google DeepMind 推出的 AI 视频生成模型,能根据文本或图像提示生成高质量视频内容。Veo 2支持高达 4K 分辨率的视频制作,理解镜头控制指令,能模拟现实世界的物理现象及人类表情。Veo 2 在 Meta 的 MovieGenBench 基准测试中表现优异,优于其他视频生成模型(如Meta、Minimax)。
【全文阅读】
-
RDT – 清华开源的双臂机器人扩散基础模型
发表时间:2025-01-09
RDT(Robotics Diffusion Transformer)是清华大学AI研究院TSAIL团队推出的全球最大的双臂机器人操作任务扩散基础模型。RDT具备十亿参数量,能在无需人类操控的情况下,自主完成复杂任务,如调酒和遛狗。
【全文阅读】
-
Apollo – Meta 联合斯坦福大学推出的大型多模态模型
发表时间:2025-01-09
Apollo是Meta和斯坦福大学合作推出的大型多模态模型(LMMs),专注于视频理解。Apollo基于系统研究,揭示视频理解在LMMs中的关键驱动因素,推出“Scaling Consistency”现象,即在较小模型上的设计决策能有效扩展至大型模型。
【全文阅读】
-
BrushEdit – 腾讯和北大等联合推出的图像编辑框架,指令引导图像编辑和修复
发表时间:2025-01-09
BrushEdit是腾讯和北京大学等机构联合推出的先进图像编辑框架,是BrushNet模型的高级迭代版本。框架结合多模态大型语言模型(MLLMs)和双分支图像修复模型,实现基于指令引导的图像编辑和修复,支持用户用自然语言指令进行自由形式的、多轮交互式的编辑操作。
【全文阅读】
-
Bocha Semantic Reranker – 博查推出的语义排序模型
发表时间:2025-01-09
Bocha Semantic Reranker是博查AI推出的语义排序模型,能提升搜索应用和RAG应用中的搜索结果准确性。Bocha Semantic Reranker模型基于文本语义,对初步排序的搜索结果进行二次优化,用评估查询语句与文档内容的深层语义匹配,给出排序得分,改善用户搜索体验。
【全文阅读】
-
Ruyi – 图森未来推出的图生视频大模型
发表时间:2025-01-09
Ruyi是图森未来科技有限公司推出的图生视频大模型,专为在消费级显卡上运行设计,支持多分辨率、多时长视频生成,具备首帧、首尾帧控制、运动幅度控制和镜头控制等特性。Ruyi基于DiT架构,由Casual VAE模块和Diffusion Transformer组成,用在视频数据压缩和生成。
【全文阅读】
-
Large Action Models – 微软推出的行动大模型开发框架
发表时间:2025-01-09
Large Action Models(LAMs)是微软推出大型行动模型的开发框架,能执行真实世界行动的智能系统,LAMs超越传统LLMs(Large Language Models,大型语言模型)的文本生成能力。LAMs能理解用户意图,在物理和数字环境中自动执行复杂任务。
【全文阅读】
-
Leffa – Meta 开源的图像生成框架,精确控制人物的外观和姿势
发表时间:2025-01-09
Leffa(Learning Flow Fields in Attention)是 Meta AI推出的用在可控人物图像生成框架,基于在注意力机制中引入流场学习,精确控制人物的外观和姿势。Leffa基于正则化损失函数,指导模型在训练时让目标查询聚焦于参考图像中的正确区域,减少细节失真,提升图像质量。
【全文阅读】
-
LatentLM – 微软联合清华推出的多模态生成模型
发表时间:2025-01-09
LatentLM是微软研究院和清华大学共同推出的多模态生成模型,能统一处理离散数据(如文本)和连续数据(如图像、音频)。模型用变分自编码器(VAE)将连续数据编码为潜在向量,引入下一个词扩散技术自回归生成向量。
【全文阅读】
-
Lyra – SmartMore联合多所高校推出的增强多模态交互能力
发表时间:2025-01-09
Lyra是香港中文大学、SmartMore和香港科技大学推出的高效多模态大型语言模型(MLLM),专注于提升语音、视觉和语言模态的交互能力。Lyra基于开源大型模型、多模态LoRA模块和潜在的多模态正则化器,减少训练成本和数据需求。
【全文阅读】
-
Manga Image Translator – 开源漫画图片文字翻译工具,多语言翻译无缝嵌入原图
发表时间:2025-01-09
Manga Image Translator是开源的漫画图片文字翻译工具,能一键翻译漫画和图片中的文字。Manga Image Translator基于OCR技术识别文本,结合机器翻译将文字转换成目标语言。工具支持多种语言,能将翻译后的文本无缝嵌入原图,保持漫画风格。
【全文阅读】
-
Ivy-VL – AI Safeguard联合卡内基梅隆和斯坦福开源的轻量级多模态模型
发表时间:2025-01-09
Ivy-VL是AI Safeguard联合卡内基梅隆大学和斯坦福大学推出的轻量级多模态AI模型,专为移动端和边缘设备设计。模型拥有3B参数量,相较于其他多模态大模型,显著降低计算资源需求,能在AI眼镜、智能手机等资源受限设备上高效运行。
【全文阅读】
-
WeaveFox – 蚂蚁推出 AI 前端研发平台,根据设计图直接生成源代码
发表时间:2025-01-09
WeaveFox是蚂蚁团队推出的AI驱动前端智能研发平台,基于蚂蚁自研的百灵多模态大模型,能直接根据设计图生成前端源代码。工具支持多种应用类型,包括控制台、移动端H5、小程序等,且兼容多种技术栈,如React、Vue等。
【全文阅读】
-
ColorFlow – 清华和腾讯共同推出的图像序列着色模型
发表时间:2025-01-08
ColorFlow是清华大学和腾讯ARC实验室共同推出的图像序列着色模型,能精细化地保持图像序列中个体身份的同时进行着色。基于检索增强、上下文学习和超分辨率技术,ColorFlow确保黑白图像序列着色与参考图像颜色一致性,适用于漫画、动画制作等工业应用。
【全文阅读】