CogVideo是目前最大的通用领域文本到视频生成预训练模型,含94亿参数。CogVideo将预训练文本到图像生成模型(CogView2)有效地利用到文本到视频生成模型,并使用了多帧率分层训练策略。用于文本到视频的生成。它是基于Transformer架构的,旨在通过理解和转换文本描述来生成相应的视频...
怪兽AI知识库大模型是一款企业知识库大模型 + 智能的AI问答机器人,旨在通过零代码的方式,快速搭建和管理企业的知识库。这个平台支持团队多人协同工作,具备完善的权限管理系统,确保信息安全同时提高工作效率。利用先进的AI问答机器人技术,怪兽AI能够提供智能且精准的自动回复服务,大幅度提升客户服务体验。...
阿里云百炼是一个基于通义系列大模型和开源大模型的一站式大模型服务平台。该平台提供生成式大模型的全流程应用工具和企业大模型的全链路训练工具,支持多种开源大模型的接入及适配。这个平台旨在帮助企业和开发者快速构建、部署和应用大规模人工智能模型。它支持开箱即用的应用调用、大模型训练微调以及一站式在线灵活部署...
Codex大模型是一种人工智能模型,它可以根据自然语言的输入生成代码。它是由OpenAI开发的,OpenAI是一个由埃隆·马斯克、彼得·蒂尔、杰克·多西等知名的科技领袖和企业家创立的研究机构,它的目标是创造和推广友好的人工智能,造福全人类。Codex大模型是基于GPT-3模型的改进版本,它经过了自然...
AnyText是一种基于扩散的多语言视觉文本生成和编辑模型,它可以在图像中生成或修改任意精准的文本。AnyText支持中文、日文、韩文、英语等多种语言,可帮助电商、广告平面设计、电影制作、动画设计师、插画师、网页设计、UI设计师、数字营销等领域的人员,提供高精准、自定义的文生图像服务。AnyText...
Segment Anything是一个基于深度学习的图像分割模型,它可以根据用户的输入提示(如点或框)生成高质量的物体遮罩。它可以用于为图像中的任何物体生成遮罩,无论是常见的物体(如人、车、猫等),还是罕见的物体(如火箭、恐龙、魔法棒等)。它的特点是具有强大的零样本性能,即它可以在没有见过的类别上进...
Llama 2是Meta AI推出的新一代大型语言模型(LLM),参数规模从70亿到700亿不等。它是为对话场景而优化的,称为Llama 2-Chat,能够在多数基准上超越开源的对话模型,并且在人类评估的有用性和安全性上,可能是闭源模型的合适替代品。Meta提供了对Llama 2-Chat进行微调和...
商量拟人大模型是商汤科技推出的一款AI拟人大模型,它支持个性化角色创建与定制、知识库构建、长对话记忆、多人群聊等功能,可实现行业领先的角色对话、人设及剧情推动能力。该模型广泛应用于情感陪伴、影视/动漫/网文IP角色、明星/网红/艺人AI分身、语言角色扮演游戏等拟人对话场景。商量拟人大模型的主要功能特...
灵境矩阵是百度推出的一个基于文心大模型的智能体(Agent)平台。它支持开发者根据自己的行业领域和应用场景,选择不同的开发方式来构建产品,以适应大模型时代的需求。开发者可以通过低成本的prompt编排方式来开发智能体,同时平台还提供了流量分发路径,帮助开发者完成商业闭环。通过灵境矩阵,开发者可以利用...
MagicVideo-V2是字节跳动公司团队开发的一款AI视频生成模型和框架。它通过集成文本到图像(Text-to-Image, T2I)模型、图像到视频(Image-to-Video, I2V)模型、视频到视频(Video to Video, V2V)模型和视频帧插值(Video Frame In...
在这个信息爆炸的时代,我们常常被如何高效、准确地获取知识所困扰。而现在,一个全新的解决方案正在悄然崛起——百川智能,一家致力于用AI技术改变知识获取方式的科技公司。百川智能成立于2023年4月10日,由前搜狗公司CEO王小川创立。公司核心团队由来自搜狗、百度、华为、微软、字节、腾讯等知名科技公司的A...
腾讯混元大模型,这是一款由腾讯全方位自研的大型通用语言模型,拥有强悍的参数规模超过千亿级别,预训练语料库超过2万亿tokens。其独步全球的中文理解与创作能力,以及出色的逻辑推理能力和稳定的任务执行能力,都令人震撼。在2023年这短短的不到两个月内,腾讯混元大模型已经取得了举足轻重的成就。9月6日,...
Outfit Anyone是一种虚拟试穿技术,它可以让用户在照片上穿上任何衣服。它是阿里巴巴集团智能计算研究所开发的一个创新项目,利用先进的人工智能和机器学习技术,提供高质量和细节一致的虚拟试穿效果。它可以适应不同的姿势和身材,甚至可以在动漫角色上试穿服装。它有可能改变电子商务和时尚行业的发展,让用...
DDColor是阿里达摩院研究的一种基于深度学习的图像上色模型,它可以自动将黑白或灰度图像着色,使图像更加生动逼真。它使用了双解码器技术,能够同时考虑色彩分布和像素级详细信息,实现高度真实的图像上色效果。它还利用多尺度视觉特征和颜色损失来提高着色的语义合理性和颜色丰富性。DDColor的黑白上色测试...
Etna模型是七火山科技推出的一个文生视频的AIGC模型,它能够根据简短的文本描述生成相应的视频内容。七火山科技发布的Etna文生视频模型支持生成视频时长达到8~15秒,每秒可达60帧,分辨率最高可达4K(3840*2160),画面细腻逼真。该模型采用先进的技术架构,在语言模型和图像模型中插入时空卷...
云雀大模型是字节跳动公司开发的一款大规模预训练语言模型。该模型采用 Transformer 架构,它能够处理多种自然语言处理任务,如聊天、绘画、写作和学习。云雀大模型利用了大量的数据进行训练,包括文本、图像、视频和音频等,以学习丰富的语言知识和语境信息。此外,它还具有视频内容理解能力,能够识别视频中...
EMO (Emote Portrait Alive) 是阿里巴巴集团智能计算研究院的研究团队开发的一个音频驱动型肖像视频生成框架。具体来说,EMO系统基于音频信号驱动来生成肖像视频。用户只需要提供一张参考图片和一段音频文件(例如说话、唱歌的声音),EMO就能够根据音频内容生成一个生动的视频,视频中的...
GPT-4是OpenAI开发的最新一代大型语言模型。它能够接受文本和图像输入,生成类似人类的文本输出。GPT-4在多种专业和学术基准上表现出了接近人类的水平,例如在模拟律师资格考试中取得前10%的成绩。此外,GPT-4在处理复杂任务、理解多语言和图文混合内容方面有显著的改进。它还能处理长达2.5万字...
MuseV是一个由腾讯音乐娱乐旗下的天琴实验室推出的基于SD扩散模型的高保真虚拟人视频生成框架。支持文生视频、图生视频、视频生视频等多种生成方式,能够保持角色一致性,且不受视频长度限制。这意味着用户可以通过MuseV轻松地将文本、图像或现有视频转换成高质量的虚拟人视频,无需担心角色形象的不统一或视频...
悟道大模型是由北京智源人工智能研究院发起的超大规模预训练模型研究项目,旨在以原始创新为基础实现预训练技术的突破,填补以中文为核心预训练大模型的空白,探索通向通用人工智能的实现路径。悟道大模型包括语言、视觉、跨模态、跨语言等多个领域的大模型系列,如悟道·天鹰、悟道·视界、悟道·天鹰AquilaCode...