正式向大家介绍我们最新的产品:Dodoboo,AI驱动的儿童绘画产品,Best AI Practice for kids!!

正式向大家介绍我们最新的产品:Dodoboo,AI驱动的儿童绘画产品,BestAIPracticeforkids!!!,我们可以将孩子们的几笔涂鸦变成一个Masterpiece,释放他们无限的创造力。欢迎大家也来体验。希望大家可以Upvote+Comment支持https://www.producthunt.com/posts/dodoboo有PH账号的朋友麻烦点个赞啊

相关推荐

封面图片

向大家介绍哥飞团队上线的一个新产品,AI贴纸生成器 https://Sticker.Show/ 。

向大家介绍哥飞团队上线的一个新产品,AI贴纸生成器https://Sticker.Show/。要说有什么特色,可能也没啥特色,跟上次给大家介绍过的老外的https://StickerBaker.com一样都是调用Replicate上面的一个AI贴纸模型生成的。那么为什么在别人已经做了一个同类产品时,还要再做一个呢?因为这是一种AI工具站的新形式,内容型的AI工具站。网站提供工具给用户使用,用户使用过程中产生的内容会出现在广场上被更多人看到。当然也会被谷歌看到,进而被抓取被索引。当有人在谷歌搜索某些贴纸相关关键词时,我的这个网站的图片就有可能出现在搜索结果里,从而吸引用户点击打开我的网站。用户用得越多,产生的内容越多,这些内容又通过搜索引擎带来更多的用户。当用户不想生成的内容被公开,或者想要下载高清大图时,就可以付费订阅。相当于工具免费,增值服务收费。这就是内容型AI工具站,这个名字是哥飞起的。这种站是垃圾站吗?显然不是,因为有工具来满足每一个用户的个性化需求,也有真实用户产生的真实内容供大家消费。那么这种模式可以做好多站吗?是的,可以上很多站,各种需求都可以用这个模式做一遍。而且哥飞让小伙伴在开发这个网站时,就做成了模板化,也就是我今天可以上一个AI贴纸站,明天又能用这套程序上一个AI头像站,或者AI视频站,等等各种站都可以。无非就是基于用户的输入,调用AI处理后,输出内容。输入的可以是文字、图片、视频、网址,输出的可以是文章、图片、视频,甚至是WebApp。今天,哥飞把这套模式免费公开,不要钱,只希望大家做的时候能够想起,是哥飞告诉你的。最后请评论谢谢哥飞,然后转发分享吧。

封面图片

很高兴地跟大家分享,本人精心打磨半年的MindOS正式在发布了!MindOS是一个AI Agents平台,旨在创造让AI为人类提

很高兴地跟大家分享,本人精心打磨半年的MindOS正式在发布了!MindOS是一个AIAgents平台,旨在创造让AI为人类提供更加自主和深度的服务,欢迎大家体验:https://www.mindos.com平台的所有体验问题和想要的功能都可以戳我反馈!另外,有producthunt账号的朋友请帮我们在投个票,非常重要!谢谢伙计们了:https://www.producthunt.com/posts/mindos-2

封面图片

我们和 Stability AI (对,就是那个 SD)合作出品的 AI 视频编辑产品【Morph Studio】内测发布啦!!

我们和StabilityAI(对,就是那个SD)合作出品的AI视频编辑产品【MorphStudio】内测发布啦!!!憋了好久终于可以把这个产品分享给大家了!这个产品的核心创新基于两点洞察:1.AI在视频行业带来的最大巨大的变化:以前影视制作前中后三期泾渭分明,我们前期设计、中期拍摄、后期制作;现在则在后期阶段也会不断生成新的素材,甚至定义新的设计。工作流的压缩必定带来新的工具需求,即在后期阶段还需要不断有生成的能力。2.AI为内容生产提供了大量的可能性,但AI视频赛道尚未出现能最大化发挥AI能力的创新型产品交互范式,需要一种产品帮助创作者更有条理地梳理AI生成的内容和应该生成的方向,我们认为画板+时间线是可以最大发挥AI能力的一种方式。总而言之,MorphStudio将会是对开源生态最兼容的AI视频制作工具,也是我们对于AI时代的视频制作工具应该长什么样的一个答卷。我们会不断探索和改进,希望能有机会和你同行!MorphStudioWaitingList内测申请地址:morphstudio.comInvalidmedia:

封面图片

一个顶级 AI 产品经理的自我修养 | 对谈光年之外产品负责人 Hidecloud - 42章经

听完播客最大的感受是:AI行业的非技术人员,如果愿意读论文和测demo,投资回报率(ROI)将会极高。一、先说测demo多体验demo,多做实验,实际上是在培养我们的认知和思考能力,思考在工程和产品上还有哪些机会可以探索。因为这个行业还处于早期阶段,我们付出一点小小的努力,就能获得很高的投资回报率(ROI)。1、往大了说,可以发现很多潜在机会在这个过程中,我们会发现一个模型要真正运行起来并不像想象中那么简单。它涉及很多环节,包括数据处理、参数设置等。解决每一个问题的过程中,你可能会发现一些潜在的产品机会。比如,有时候Hidecloud在配置模型时,就会突然发现这个模型产生的结果挺有趣的。但普通用户根本无法直接使用,因为它涉及到很复杂的数据预处理环节。以声音克隆为例,如果讲一分钟的话来克隆,不是直接就能克隆的。那一分钟的内容,需要经过七八步复杂的预处理,普通人很难独立完成。如果普通人搞不定,这不就是一个机会吗?如果我们能帮他们完成整个数据预处理和训练过程,直接交付最终效果,这不也是一个机会吗?但如果我们不亲自去体验,首先无法感受到看到最终结果那一刻的喜悦,其次也不会知道要达到那个效果还会遇到哪些障碍。2、往小了看,能甩开国内同行一大截在Twitter上,偶尔会有一些外国人分享有趣的小产品。比如,有人发布了一个有趣的小产品,在聊天过程中你要去猜测对方是AI还是真人。这种东西挺有意思,但国内似乎还没有人做类似的产品。更简单一点,我们可以尝试自己写个GPTs。这种事情不需要编程,对吧?但说实话,就像Hidecloud平时面试产品经理,会问他们有没有尝试过创建自己的GPTs?可能十个人里面九个都会被Hidecloud淘汰,因为大家还是不太愿意亲自动手,更喜欢看别人的成果。但一旦我们亲自动手,获得的信息量会比看视频或阅读文档都要大得多。二、再说读论文1、只需8篇核心论文,显著提高认知水平作为产品经理,学习AI的一个有效途径就是阅读论文。Hidecloud之前总结过StableDiffusion的发展历史,从2020年至今,这三年间的关键信息其实并不多,大约只有八篇经典论文,把它们串起来就能清楚地理解整个原理。

封面图片

最近很多做产品的朋友都在考虑转到AI赛道,我因为入行比较早,一直都在AI方向,收到的咨询还不少,所以想着总结一下给大家的建议看看

最近很多做产品的朋友都在考虑转到AI赛道,我因为入行比较早,一直都在AI方向,收到的咨询还不少,所以想着总结一下给大家的建议看看能否帮助到更多的人。现在想转AI方向的朋友大多数其实都是看到了ChatGPT浪潮带来的新机会,认为在古典互联网的各个赛道已经比较卷的情况下转过来可以有更多的职业发展空间。我觉得这个想法本身没有什么问题,问题比较多的是有了想法以后怎么做出有价值的行动这个大家都不太清楚。我不是做专业职业规划的,对大的市场趋势和职场能力规划之类的不够专业,但我从怎么培养自己的AI方向的产品Sense还是有一些发言权的,从这个角度给一些建议。第一点,自己上手用起来很重要。先把ChatGPT和Midjourney玩明白,充个ChatGPTPlus,每个月20美金,这么说吧,我认为这是我购买过的最物超所值的产品。ChatGPT上网搜教学视频入个门,然后跟着吴恩达的教学视频跑一遍,Midjourney就跟着@莱森LysonOber的视频走一遍就差不多入门了,剩下的就是把这两个产品尝试拿来帮助你完成工作,我的一些数据分析和设计师朋友已经被我安利过后无法离开他们了。第二点,了解大模型产品的原理和能力边界很重要。你不用成为技术专家,更不用自己去啃每一篇论文,但是你要知道呈现到你面前的内容是如何一步一步产生的。想了解LLM产品的底层原理可以看我之前发的帖子,基本的原理懂了以后可以看@马丁的面包屑的内容来加深思考。最后就是,多动手实践。我不认为一定要先找到一份工作才能开始进行实践,现在大厂也都是在原有业务上做增量,以及做底层能力搭建,有很多事情是可以你直接用很轻量的方式就能开始的。我是个非科班出身的产品经理,我都能用这些工具来完成一个完整的带前后端功能的小项目,找一些不那么复杂的idea,你也可以实现他们(实在不行找人一起弄一下也行)。祝看好AI想投身AI的朋友都能顺利达成目标。

封面图片

AI绘画,为何听不懂人话?

AI绘画,为何听不懂人话?两个系统几乎同时发布,免不了被对比。深燃体验后发现,文心一言的图片生成功能,能够识别简单元素、文本没有歧义的人或事物,但涉及到成语、专有名词,以及字面意思和实际意义不同的表述,它就会跑偏。Midjourney在这方面几乎没什么问题。另外,Midjourney接收到的提示词(prompt)越详细精准,生成的图片越符合要求,但文心一言需求越多,系统越容易出错。调侃背后,AI生成图片其实不是一件简单的事情,需要在数据、算法、算力等方面综合发力,既对技术和硬件有高要求,还对数据采集和标注等苦活累活高度依赖。文心一言的AI绘图功能与Midjourney在以上三方面都有不小的差距。百度方面公开表示,“大家也会从接下来文生图能力的快速调优迭代,看到百度的自研实力。文心一言正在大家的使用过程中不断学习和成长,请大家给自研技术和产品一点信心和时间。”从业者预估,文心一言全力追赶,用一年左右的时间有希望达到国外80%以上的水平。AI绘图这个战场,枪声已经打响,追逐赛、排位赛都将一轮轮上演。搞不定成语和专有名词,提示词越多AI越废文心一言最近接受的最大考验,莫过于画一幅中餐菜名图。在网友们的热情创作下,驴肉火烧、红烧狮子头等菜品出来的画做一个比一个离谱,车水马龙的街道、虎头虎脑的大胖小子,同样惊掉了大家的下巴。网友体验文心一言时截图,目前已更新网民热心找bug,百度程序员应该也在背后发力,深燃测试发现,以上内容均已更新为可以正确显示对应图片。不过,像娃娃菜、脸盆、虎皮鸡蛋、三杯鸡,还有胸有成竹的男人、虎背熊腰的男人,文心一言仍然给出的是字面直译后的图片,画风一言难尽。深燃截图即便输入提示词时强调“画一个卫浴器材水龙头”,文心一言画出的仍然是水中龙的头像;当深燃输入“画一个风姿绰约的人”时,系统画出的是一位男士,显然AI没能理解风姿绰约形容的是女人。深燃截图程序员改bug的速度比不上网友找漏洞的速度。很快又有人发现,文心一言画图时有把提示词中译英之后根据英文意思生成图片的可能性,据此有人推测百度可能用国外的作图产品接口,套了一个自己的壳。深燃也验证了一下某用户的测试。比如输入“水瓜”,画出的是西瓜,这也对应西瓜的英文单词Watermelon;要求画树叶、封面、苹果,画出的图是树叶覆盖苹果,显然系统是把封面翻译成了Cover,这个单词也有覆盖的意思;画“土耳其张开翅膀”,出现的画面是张开翅膀的火鸡,我们都知道,Turkey是土耳其,也是火鸡。深燃截图对此,百度对外回应称,文心一言完全是百度自研的大语言模型,文生图能力来自文心跨模态大模型ERNIE-ViLG。“在大模型训练中,我们使用的是全球互联网公开数据,符合行业惯例。”亚洲视觉科技研发总监陈经也在接受媒体采访时表示,“百度的画图AI采用了英文标注的开源图片素材进行训练,因此需要中翻英来当prompt(提示词)。目前,全球AI研发有开源的传统,特别是训练数据库,不然收集图片效率太低了。”深燃体验后还发现,文心一言在单个需求描述时表现尚可,比如画一幅愤怒的小孩、开心的农民、一只很饿的流量猫,但一幅图一旦提出多个作图需求,AI就有点懵。比如请文心一言“生成一幅画,在一个下雨天,小红在植树,小王在看书”,系统生成的图片里只有背靠树看书的一个人;还有,“画一幅画,里面有大笑的年轻人、哭泣的小孩、愁容满面的老人”,系统把哭泣和愁容满面等表情集合在了一张脸上,画出了一个小孩和老人的结合体。如下图所示,还有一些类似的情况,系统同样没能准确完成给出的指令。深燃截图深燃又把上述提示词输入到MidjourneyV4测试了一下,如下图所示,即使是V4版本,表现也远高出文心一言。MidjourneyV4基本能理解句子中的意思,做出的图几乎可以包含所有的要素。深燃体验MidjourneyV4后截图深燃还测试了AI绘画领域一直以来难以攻克的画手指难的问题。在这方面,文心一言也没能经受住考验。比如“画一位30岁的女士,双手竖起大拇指”,文心一言生成的图片大拇指是竖起来了,但是其中一只手有7根手指;输入“画一个人,两只手做点赞姿势”时,系统也无法实现这一手部姿势。深燃截图Midjourney此前的版本同样存在手指误差的问题,最新发布的V5版本,已经能够正确画出五根手指,虽然有人依旧指出其绘出的大拇指有点长,但相比以往已经有不小的进步。有从业者评价:“Midjourney的此前版本就像是近视患者没有戴上眼镜,而MidjourneyV5就是戴上眼镜后的清晰效果,4K细节拉满”。比如MidjourneyV5画出的《三体》角色图,效果被网友评价为几乎要“成精了”。而文心一言画《三体》角色时,系统全然不顾描述里提到的留着黑色短发、戴着眼镜的要求,画出了一个扎着发髻,不戴眼镜,古风穿着的男士。上图为MidjourneyV5生成的三体角色图图片来源/Ai总编推书下图为文心一言作图/深燃截图最近MidjourneyV5画的一对情侣的图片掀起了业内一阵惊呼。作图的提示词是:“一对年轻的情侣穿着牛仔裤和夹克坐在楼顶上”,背景分别是2000年和2023年的北京。最后出图的效果大大超出很多人的想象。深燃把类似表述输入文心一言时,系统直接给出了毫不相关的图片。左图为MidjourneyV5作图 图片来源/量子位右为深燃对比体验文心一言截图对比来看,Midjourney作图已经在细节上几近完美了,文心一言还处在难以准确分辨字面意思和实际意思的初级阶段。Midjourney提示词描述越详细,生成的图片越精准,文心一言能理解的文字长度有限,过多描述会让它直接报错或者胡乱生成图片。AI文生图到底有多难?按出现时间来算,AI绘画算是AI领域的新事物。公开报道显示,2021年1月,OpenAI发布了两个连接文本与图像的神经网络:DALL・E和CLIP。DALL・E可以基于文本直接生成图像,CLIP能够完成图像与文本类别的匹配。DALL・E是基于GPT-3的120亿参数版本实现的。随后在2022年,DALL·E2、StableDiffusion等文生图底层大模型发布,带动了应用层的发展,出现了一大批爆款产品,包括Midjourney。2022年也被认为是“AI绘画元年”。StabilityAI的StableDiffusion是一个开源模型,很多开发者基于这个模型开发训练出了更多不同的生成模型。国内很多科技公司的AI绘画项目也是由StableDiffusion提供技术支撑。Midjourney是付费订阅的,公开信息显示,Midjourney每年的收入可能达到1亿美元左右。另外,有AI绘图业务的还有Google、Meta等公司。百度的文心一言和此前就发布的文心一格算是国内最早的具备AI绘画功能的大模型。文心一言的发布和升级了的MidjourneyV5更是将AI绘画行业推向高潮。这一次迭代是Midjourney自去年推出以来最大的更新,Midjourney也成了目前市面上最先进的AI图像生成器之一。热度还在继续。最近,行业内又有一系列企业跟进推出AI绘画功能。3月21日,微软宣布,必应搜索引擎接入了OpenAI的DALL·E模型,将AI图像生成功能引入新版必应和Edge浏览器,免费开放。就在同一天,Adobe发布AI模型Firefly,支持用文字生成图像、艺术字体。可以说,2023年,AI绘画行业迎来了真正的大爆发。调侃文心一言之余,客观来说,AI生成图片本身就不是一件容易实现的事情。系统的语义理解能力、充分的数据标注、细节处理、用户的提示词选择,都在AI作图中起着重要作用。AI领域资深从业者郭威告诉深燃,之前AI生成图片只需要确认风格、物品等,用...PC版:https://www.cnbeta.com.tw/articles/soft/1352091.htm手机版:https://m.cnbeta.com.tw/view/1352091.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人