Janus-Pro是由 DeepSeek AI 开发的先进多模态 AI 模型,专注于实现图像理解与图像生成的无缝结合。Janus-Pro 通过优化的训练策略、扩展的训练数据和更大的模型规模,在多模态理解和文本到图像生成方面取得了显著进步。
Darwin是一个开源项目,专注于自然科学领域的大型语言模型构建,主要涵盖物理、化学和材料科学。通过对科学文献和数据集进行预训练和微调,Darwin 在科学问答和多任务学习任务中表现优异。它结合了结构化和非结构化的科学知识,提升了语言模型在科学研究中的效能。
YuE是由香港科技大学开发的开源音乐生成模型,专注于从给定的歌词生成完整的音乐音频。YuE 支持多种音乐风格和语言,能够生成高质量的声乐和伴奏部分,适用于各种音乐创作需求。通过 YuE,用户可以轻松生成长达 5 分钟的完整歌曲,实现创意音乐制作。
Loopy是一个端到端音频驱动的视频生成模型,专注于生成逼真的头像动画。利用先进的 AI 技术和时间模块设计,Loopy 能够从音频中提取自然的运动模式,并生成高质量的动画效果。支持多种视觉和音频风格,适用于虚拟主播、动画制作等应用场景。
PengChengStarling是由 PengCheng Labs 开发的多语言自动语音识别工具,支持中文、英语、俄语、越南语、日语、泰语、印度尼西亚语和阿拉伯语。相比 Whisper-Large v3,PengChengStarling 的模型仅占其 20% 大小,但推理速度提高了 7 倍,且流式语音识别效果卓越。
Cherry Studio 是一个支持多模型服务的AI桌面客户端,支持 Windows、macOS 和 Linux,未来还将支持移动端。用户可以通过Cherry Studio无缝集成多种大型语言模型 (LLM),包括 OpenAI、Anthropic 和 Gemini 等,甚至本地部署的模型,确保数据隐私和安全。
Tarsier是由字节跳动研发的大规模视频语言模型家族,旨在生成高质量的视频描述,并具备良好的视频理解能力。Tarsier 采用了简单的模型结构,结合了 CLIP-ViT 编码帧和 LLM 模型来建模时间关系。通过精心设计的两阶段训练策略,Tarsier 展现出了强大的视频描述能力和视频理解能力,在多个公共基准测试中取得了最先进的成果。
LMArena AI是全球开放的AI大语言模型对战评测平台,通过相同提示词让两款模型匿名作答并由用户投票选优,实时生成排行榜。支持提交自定义 Prompt,涵盖通用问答、创意写作、代码生成等多场景,已累计超 350 万次投票,助力开发者、研究者与 AI 爱好者直观比较模型表现并推动 AI 优化。
JoyGen是一个音频驱动的3D深度感知说话人脸视频生成框架。它通过音频驱动生成嘴唇运动和视觉外观合成,旨在实现精确的嘴唇-音频同步和高视觉质量。
Hibiki是一个Kyutai Labs开发的一个用于流式语音翻译(也称为同步翻译)的模型。与离线翻译不同,离线翻译需要等待源语句结束后才开始翻译,而 Hibiki 能够实时积累足够的上下文,以逐块生成正确的翻译。用户在讲话时,Hibiki 会在目标语言中生成自然的语音,并提供文本翻译。
CineMaster是一个3D感知和可控的文本到视频生成框架,旨在帮助用户创建高质量的电影视频。该框架通过两个阶段的工作流程,赋予用户专业电影导演般的控制力,允许他们在 3D 空间中精确地放置场景中的对象,并灵活地操控对象和摄像机。
InspireMusic 是由阿里巴巴通义实验室推出的开源音乐生成框架,集成了多项音频领域的前沿研究成果,为开发者和研究者提供全面的音乐创作、风格转换和音效合成解决方案。该框架依托多模态大模型技术,支持通过文本描述或音频输入进行智能化创作,并提供完善的模型调优工具链。
YAYI2:在https://yayi.wenge.com/chat/体验高效智能对话与创作助手。
FireRedASR是一款由FireRedTeam开发的开源工业级自动语音识别(ASR)模型,支持普通话、中文方言和英语。它在公开的普通话 ASR 基准测试中取得了新的最优结果,并且在歌词识别方面表现出色。
FlashVideo是一个由字节跳动和香港大学联合开发的高效高分辨率视频生成框架,特别适用于文本到视频的生成。通过创新的两阶段框架设计和流匹配技术,FlashVideo 能在短时间内生成 1080p 高清视频,优化视频流畅性,并减少计算成本。
Goku是一个基于流生成的视频生成基础模型,由香港大学和字节跳动研究团队共同开发。Goku 模型主要用于生成高质量的视频内容,尤其在广告和营销场景中表现尤为出色。
RAGFlow是一款开源 RAG 引擎,支持复杂格式文档解析、语义检索与智能问答,兼具多模态理解、引用溯源与代码执行功能,适合构建企业级 AI 助理与知识系统。
Step-Video-T2V是一款由阶跃星辰与吉利汽车联合开源的文本生成视频大模型,支持中英文输入,基于 Video-VAE 与 DiT 架构,具备 300 亿参数,最长可生成 204 帧高质量视频。模型引入 DPO 偏好优化,提升画面一致性与真实感,适用于影视创作、教育内容、游戏设计与 AI 多模态研究等场景,支持本地部署与在线体验。
Phantom是一款由字节跳动开源的 AI 视频生成框架,支持通过文本和图像输入生成主题一致、高保真的视频内容。采用跨模态对齐技术,确保人物身份、外观、动作在整个视频中保持统一,适用于虚拟人、电商广告、动画创作等多种场景
创建并分享个性化AI助手,聊天、自动化与集成一站式完成。
NotaGen是由中央音乐学院与清华大学等机构联合研发的AI音乐生成模型,专注于生成高质量古典音乐乐谱,同时支持流行音乐创作。作为开源项目,其目标是推动音乐与人工智能的深度融合,为专业作曲家、教育机构及音乐爱好者提供创作辅助工具。
支付宝推出的零代码AI应用开发平台,用户通过自然语言指令即可快速创建智能体,无需编程基础。平台集成通义千问、蚂蚁百灵等多种大模型,支持对话交互、文本生成、图片生成等核心功能,并实现支付宝小程序、App等多平台一键发布,满足个人用户、商家及开发者的多样化需求。
新一代智能体Agent开发平台,助力开发者快速搭建生产级智能体。
讯飞星辰MaaS平台:一站式训练、部署与运营企业级大模型。
千帆慧金是百度智能云自主研发的金融行业垂直大模型,聚焦金融场景的智能化需求,以“专业、可靠、可扩展”为核心,为金融机构提供从基础能力到场景化应用的全链路智能化解决方案,助力行业从“数字化”向“智能化”深度升级。
浦语·灵笔2.5 是一款开源图文多模态大模型,支持图文创作、网页生成、视频理解与语音交互,具备超长上下文、多轮多图对话与高分辨率图像处理能力,广泛应用于内容创作、教育、智能助手等场景。
IndexTTS是B站推出的工业级文本转语音系统,支持中英双语、零样本语音克隆与高保真音质。采用字符-拼音混合建模、BigVGAN2 解码器与情感音色分离技术,语音自然流畅,广泛应用于智能助手、有声读物、视频配音等场景。
HYPIR是一款高性能图像复原大模型,支持一键将模糊或受损图片修复至 8K 超清画质。采用单步对抗生成策略与扩散模型先验技术,具备极速推理、文字高保真还原及多场景图像适配能力,广泛应用于老照片修复、医学影像增强、文档清晰化与文化遗产数字化等领域。
WeKnora(维娜拉)是腾讯开源的 基于大语言模型(LLM)的文档理解与语义检索框架,采用 RAG(检索增强生成)机制,将精准召回的文档片段与大模型推理结合,输出高质量、上下文感知的回答。
ThinkSound是阿里巴巴通义实验室推出的多模态 AI 音频生成与编辑框架,基于思维链推理(CoT)技术,从视频、文本或音频生成高保真、语义匹配的声音。支持对象级交互式编辑、音效修复与多场景拟音,广泛应用于影视后期、游戏音效、无障碍视频及创意内容制作。
StableAvatar是由复旦大学、微软亚洲研究院、西安交通大学等团队联合研发的端到端视频扩散模型,可基于一张参考人物图片与音频,生成无限时长、高保真、身份一致的音频驱动头像视频,无需任何后处理。支持多分辨率输出与跨平台运行,广泛应用于虚拟主播、影视广告、游戏角色动画、教育培训及数字人客服等场景。
Gemini 2.5 Flash Image是Google最新一代AI图像生成与编辑模型,支持多图融合、角色一致性、自然语言精准编辑、视觉模板适配及基于世界知识的创作。延续低延迟与高性价比优势,生成画质更清晰细腻,适用于电商、品牌营销、教育、游戏等多场景,并为所有生成图片嵌入 SynthID 数字水印,确保合规可追溯。
腾讯混元HunyuanVideo-Foley:为视频生成高质量拟音与音效的开源工具。
GPT-Realtime:低延迟、多模态实时交互,让AI像对话一样自然流畅。
FramePackLoop 是基于 lllyasviel/FramePack 扩展开发的 AI 循环视频生成工具,通过在主视频首尾之间生成“连接视频”,实现平滑无缝的循环播放,适合制作直播背景、UI 动画、动态贴纸等素材。
OpenRouter AI是一个统一的AI大模型API接口平台,通过一个API即可访问来自OpenAI、Anthropic、Google、Mistral等60+提供商的500+模型,支持文本、图像、多模态等多种能力。它为开发者和企业提供更高可用性、更优价格和更灵活的数据策略,帮助快速构建、测试与部署 AI 应用。
Seele AI:一站式AI工作流平台,轻松构建、运行与管理智能应用。
VoxCPM:开源语音大模型平台,支持端到端语音理解与生成。
iTerms是法大大集团推出的一站式AI法律工作台,主要面向企业客户,提供合同起草、合同审查、法律问答、案件管理、知识库建设等功能,帮助企业提升法务效率、降低合规风险。
LandPPT是一个基于大语言模型的 智能演示文稿生成平台,旨在帮助用户快速创建专业、美观的 PPT。它集成了GPT-4、Claude、Gemini等顶尖AI模型,并支持本地部署,能够根据用户需求自动生成结构化大纲、演示内容和配图。
Xiaomi MiMo大模型:小米开源多模态AI,支持文本与图像理解与生成。
LLaMA-Factory Online是一站式在线大模型微调平台,提供低代码微调、数据管理、训练监控与模型导出部署,帮助企业与研究者快速定制并上线专属大模型。
StoryMem是字节跳动与南洋理工大学联合开源的AI多镜头长视频生成框架,主要解决长视频的“叙事一致性”和“镜头多样性”,可以根据文本指令生成多个镜头切换、具有完整故事逻辑的长视频,提供完整的模型、训练过程和推理脚本,对开发者友好,易于二次开发和拓展。
Ultralytics是一家专注于计算机视觉人工智能的技术平台,以开源YOLO(You Only Look Once)系列模型为核心,提供从数据处理、模型训练到多端部署的全链路工具,支持无代码操作与代码开发双模式,赋能从学术研究到工业落地的各类视觉AI需求。
AniSora(全称Index-AniSora)是一款动画视频生成领域的开源AI动画视频生成模型,聚焦Sora时代的动画视频生成前沿技术,以开源透明、社区驱动为核心原则,依托先进的时空建模技术,为用户提供低门槛的AI动画视频创作能力,同时开放全量代码支持技术研发与二次开发,覆盖从个人创作者到专业制作团队的多元动画创作需求。
Grok-1是马斯克旗下AI创企xAI发布的一款开源AI大模型。它是一个混合专家(Mixture-of-Experts,MOE)大模型,其参数量达到了3140亿,远超OpenAI GPT-3.5的1750亿,是迄今参数量最大的开源大语言模型。旨在用作聊天机器人背后的引擎,用于包括问答、信息检索、创意写作和编码辅助在内的自然语言处理任务。
Waver 1.0:开源通用自主代理框架,支持多模态感知与任务执行。
微软推出 MAI-Voice-1:高保真、低延迟的多语言语音生成模型。
WiseDiag-Z1是由杭州智诊科技推出的全科医学通用大语言模型,专为医疗领域设计,具有730亿参数和强大的医学知识库。它在知名的医学大模型主流榜单中名列前茅,适用于大多数复杂场景的健康咨询。
UIGEN-T1是一款专为生成 HTML 和 CSS 前端组件设计的大型语言模型,通过链式推理自动构建登录页、仪表板、表单等静态 UI 结构。支持自然语言提示,适合低代码平台集成与前端原型设计,无需手写代码即可实现高效界面初稿生成。
AI Bot开发平台