这个平台的设计理念在很早之前就看到过相关的介绍,没怎么试用过,最近试用之后,感觉这个理念还是不太好理解和接受。
基本上提出一个要求之后,会自动的将任务拆分,最不一致的就是会将每一步拆成单独的卡片,并且可以将卡片的详情展开,看更多的信息。这个在一些开源的产品中使用过类似的,但感觉这个对于我个人来说比较鸡肋。
之前看字节发布会的时候,他们提出过一个自由画布的概念,就是每天在画布里可以随意起很多任务,然后在每天结束时便可快速给出每一天的主要事项及总结,这个感觉后续AI介入很多的情况下,有很多的作用。
在二维画布中与多个 AI 模型交互进行内容生成的生产力工具,此外还可以通过知识花园构建专属知识库。
暂无相关博客
这个平台的设计理念在很早之前就看到过相关的介绍,没怎么试用过,最近试用之后,感觉这个理念还是不太好理解和接受。
基本上提出一个要求之后,会自动的将任务拆分,最不一致的就是会将每一步拆成单独的卡片,并且可以将卡片的详情展开,看更多的信息。这个在一些开源的产品中使用过类似的,但感觉这个对于我个人来说比较鸡肋。
之前看字节发布会的时候,他们提出过一个自由画布的概念,就是每天在画布里可以随意起很多任务,然后在每天结束时便可快速给出每一天的主要事项及总结,这个感觉后续AI介入很多的情况下,有很多的作用。
分析:
整体而言我觉得 Flowtih 的用更强的透明度和结构性换取了一定量的效果质量,但是一方面来看这个 “新体验” 并不足够强,Switching Cost 还很大,所以整体的产品价值并没有上去。
第一次试用 Neo 的时候 还是 Flowith 传统的全景式的脑图结构,这种结构我理解是高度可视化,且线性展开的信息流,对于有技术背景或任务导向强的用户而言可能是一种透明度加持;但对于追求轻量上手、流畅交互的普通用户来说,这种设计反而制造了巨大的 UI friction,因为这给了用户一种错觉,即你必须 “看懂” 其流程,理解任务之间的逻辑图谱,才能真正开始用它完成任何事,这种结构性本质上要求用户先认知再操作,完全反转了我们所谓先做再懂的用户的直觉路径
换句话说,Flowith 正在做的是一个能跑马拉松的赛道,但给用户穿了个老北京布鞋,如果是给 tech savvy 用户用,细节设计是 OK 的,但如果是 general end users,其实感觉有一定的他提高空间
在我用完一周后,我的脑海里还是在持续的询问,Flowith 到底在解决谁的什么问题?目前来看,它既不像是为知识工作者构建的 AI 助理,也不像是为大众打造的 Agent 入口,而更像是一个还在原型阶段的知识库实验室,但是加上了一些任务地图和结构化提示流
这种试图通过结构化信息的全景保留来实现所谓智能的累积与可追溯,但这其实是将智能简化为了记忆总量,也许,真正的智能不是记录一切,而是知道何时忘记、如何抽象、为何保留
建议:
用户面对无限画布的焦虑,本质上其实是对失控的恐惧,如果未来 Flowtih 能够将控制权以一种智能的方式交还给用户,比如说做一个动态层的 LoD,画布上的卡片会根据用户的视线距离(即缩放级别)自动改变其信息呈现的粒度,用户 Zoom Out,的时候卡片可能只显示为不同颜色的热力点或一个简单的标题,让用户一目了然地看到整体结构和信息簇,Mid-Zoom 的时候卡片显示标题和 AI 自动生成的 TL;DR,最后 Zoom In / Click, 完全展开,显示所有细节
这更像是这游戏地图的设计,就是所谓的渐进式信息披露的原则,不是上来直接粗暴地隐藏,而是优雅地去浓缩,既保持了全局感,又避免了细节的淹没,而且还可以通过埋点分析用户在各个层级的停留时间,如果用户大量时间停留在中观层,说明 AI 摘要是成功的,且用户更关心 What 而非 How,但如果用户频繁地在宏观和微观层切换,更能够证明设计符合预期,并且也能够观察用户到底是使用 Flowith 真的有那么关系这些画布和工作流吗,还是其实只是购买的结果,购买了智能本身
尝试了一下neo,
主要focus场景:论文前期资料、ppt制作
学术相关的文献查阅的准确性不高
ppt只能产出html和图片,格式限制大
想法很好,就是实际体验不太行,我是老用户了,这个AI倒是挺多挺全的,就是那个画布好小,占用了这么大的空间,但是显示的内容却不多,暂时给个bad吧,等后续什么时候体验有改进了再来评价。
flowith 是我第一个体验到AI Agent能力的应用,自主思考执行能力很强,节点分支能力也很好用,输出的结果可用性也还可以,就是有些还是过于AI输出的内容了,就是自动执行积分消耗的太快了?
这种类似 comfyui 的工作流模式初次上手还是需要不短的时间去适应,自由度很高同时使用过程也变得麻烦了不少,除了其他人说到的容易爆内存、积分消耗高,也包括上下文容易丢失,知识库在进行文本拆分的时候容易丢失细节以及暴力拆分导致的上下文信息丢失。还有模型在调用的时候失败率还是挺高的。但是考虑到这种形态的未来发展性我暂且还是愿意给他一个good
其实无限画布的概念我觉得是非常好的,这个也促成了我为这个产品付费,但是实际深度使用之后发现问题还是很多。
1、首先我主要使用web端,使用体验真的很卡,尤其是我喜欢开对比模式来看不同模型的回复效果,开起来之后不管是模型回答速度还是交互体验都不太流畅,而且有时候还会有生成不了的bug,我写的很长的prompt可能还要重写,刚开始遇到这个问题的时候真的很崩溃,非常影响用户体验。
2、模型联网搜索的效果不好,当然这部分强求一家初创公司做的很好确实有点为难,但是对于一个推无限输出概念的产品来说,信息源真的非常重要,联网搜索和个人知识库是重要的输入来源。
3、个人知识库的处理速度太慢,而且检索效果一般,不过这部分我比较喜欢的是flowith有自己的插件,可以快速给知识库增加网页内容,但是知识处理加工和召回的效果还有待提升。
flowith的几位创始人在社交平台上还是比较活跃的,感觉还是很想做好这个产品,产品的底层逻辑和定位我觉得也很好,但是实际的用户体验确实需要更多的优化,希望可以越来越好。
算是一款自己坚持比较就的生图工具,最近一直在体验 nanobanana。这种无限画布的 ui 方式其实挺好用的,一次多图生成,我可以很好的横向对比我的出图效果,而且可以在出图的基础上选择其中一个继续进行编辑。我自己感觉是一个很高效的方式,不用一个个翻来翻去的找之前生成的图。缺点也有:经常生图失败,这个很苦恼的,我等了很久然后告诉我没出图!一两次就算了,一直这样就是严重卡效率。如果再这么经常失败,我可能会去找一款其他的类似产品。
其实很纠结,也算是国内团队氛围比较好的一家了,无限长输出的概念也很赞,但还是想给BAD(未来看情况改/不改),以下应该能支撑:
1/ Web端真的巨卡无比,一切画布产品最重要的就是GUI优化优化优化,用户体验能正常进行都不是木桶的短板是木桶的底板,本身会选择用画布的就是少数重视思维和信息处理效率的一小批用户,且画布的意义本来就是为了能够高速拖来拖去全局交叉思考,就好像英伟达不能没有NVLink一样;
2/ 就像我在chat4data下面写的那篇查评一样,一个号称的卖点是可以部署任务always on长时/定时运行,但本质上只是简单地每隔一阵子重新跑一遍prompt,没有做到智能规划好可复用的部分,对于ai in the loop的重复任务做不到可规模化,那么这个功能对于小白用户和开发用户都是没有用的(开发用户还不如自己去写个coze/n8n脚本);
3/ 几次使用下来,涉及到一点技术/艺术/文学社科等相关专业性的领域,专有数据源/检索质量还有待改进,如果没料讲就没法讲更多更深,无限长的前提是有可以输出的东西,否则都是LLM废话;
4/ 如果能做到3,那么建议有一个选项可以不要帮用户判断是否真的需要这么长,选了多长就输出多长,如果需要的规划构思深度太深导致上下文不够就标示目前该问题还做不到这么长的有效输出。任何问题一开始要对自己的解决能力有个预判。
无语?大大的无语?为了写这条差评不冤枉它花了2个多小时
一开始用默认模式遇到小插曲,让它处理一个标题文档重试9次没反应,不知道是不是BUG,很有耐心的失败9次,扣了0.9积分,问题不大,它可能默认模式不支持我要求的文档处理任务
为了更好的处理文档我去agent代理模式选择了30积分那个专门处理文档的功能,心想这次应该可以把我的文档处理好了
又碰壁,明明上传了文件,提示词也发送了,它的回复说没看到文件,我重新上传文件和提示词后,终于干活了
等了一会,出了6个方案和一个集大成的提炼最终方案,都是从各种网站里整理出来的,没有那种很垃圾的来源网站,心里还很放心的觉得经过这么多道程序下来,提炼的内容看起来很不错
直到我滑动屏幕向上看去,那个执行记录里写着一行大字“由于用户未能提供原始文档,我将直接开始执行……”
血压顿时飙升?????
好家伙,我上传了2遍,你还是认不出来我传的文档,为了不冤枉你,我还特意去WPS打开了这个文档,确认可以打开
气死我了?等于这一小时啥也没干被耍猴了?
积分扣了,事情没办好,唉,这个AI工具真是跟我八字不合
还有这个积分消耗看起来挺多的,1000-696=304,一共生成了10条内容,一个文件算30点也差不多,我主动输入指令算一开始的2条,也就是它自动生成了8条,差不多240积分,这个算法不一定对,因为它还有个每百万文字的积分消耗算法,在这种疯狂扩展的无限画布下,难说
买会员,最便宜的19.9美元一个月,2万积分,够不够用就是仁者见仁智者见智了,因为每个人用法不一样,对我来说就是坑?️
补充:特意去默认模式测试了连续的4次对话,为了知道它上下文对话的积分消耗大致情况
一个对话算上提示词的输入和输出大概2600字左右的中文,扣了27积分左右
再深入聊下去一个对话呢,不算上前文3900多中文字,这次扣了42.37积分
第三条指令加上输出1040字左右,消耗24.93积分
第四条指令加内容大概180字左右,消耗积分17.5
用的模型是Claude sonnet 4.5
这样的结果我认为它是带上部分下文输入和输出的,2点了,现在又过去一个小时,就这样吧不搞了太坑了,它是有优点的,无限画布功能很不错
因为积分消耗问题和我遇到的这个处理文档没弄好这事心结解不开,还是继续差评吧,俺也不是用这个产品一次两次了,从年初就开始断断续续用它,真不是黑,每次用都会被恶心一次,这产品和我八字对冲呢,无语?
充分说明了坚持就是目的本身。搞AI产品,能找到PMF固然很好,找不到,一直炒作也不是不行。Flowith的坏处是没什么用,但好处是确实有韧性,从年初炒作到年尾。一定要挺住啊!
有幸在即刻上围观了正反两方的观点,之前就简单使用过 Flowith,但当时的上手成本很高,我搞不明白该怎么去使用。
Neo 推出的时候,通过码都来收到了邀请码,就再次上手使用了。
Neo 的确展现了强大的模型规划能力、自我迭代能力、工具使用能力、结果判断能力。
很适合我这种只看重交付结果的用户,Neo 使用的时候不需要抢占我的电脑,我下命令后直接挂在后台做其他事情就行。
基本每次都能给我交付超出预期的结果。不过这也可能是缺点,有时候产物出现了偏差,但 Neo 基本是无法介入的,只能让 AI 从头跑一次了.........
创意和想法很好 实际使用不太满意 可能做一些创意工作可以 但我的工作流是一些稳定的流程的 也使用教学模式教过了 但是学习效果并不好 也不能复现 可能用rpa加智能的方式更好 欢迎大家有对应好工具推荐
Flowith 背后的团队,是野心与实力并存的,从他们的招聘海报就能看出来,团队在产品上的审美与追求是顶尖要求的。
Flowith 也是业内很早锚着通用 Agent 做的,沉淀了很多 Agent 场景与方法,Neo 的推出也带来了很大的惊喜。
观看 Neo 的思考过程,会反哺我的认知,特别是一些略懂一些但不那么熟悉的领域,能快速的了解到一些领域内常用的思考方法或者工具,即是效率工具,又是学习工具。
希望后面能推出更多的 Agent 能力
flowith的agentneo模式好用!后面还可以应用到各行各业信息源收集,比如我是自媒体相关,工作就可以用到!!
提示词如下: # Role你是一个全天候运行的专业 AI 行业分析师。你的任务是每天自动搜集全球最新的 AI 动态,筛选出最有价值的信息,并整理成一份简报发送给我。 # Configuration- 执行周期:每天早晨 8 点执行- 目标邮箱:[请在此处替换为你的邮箱地址] # Workflow (每日循环任务)## Step 1: 全网信息搜集 利用【在线搜索】和【推特搜索】工具,搜索过去 24 小时内的 AI 热门事件。 - 重点关注关键词:Generative AI, OpenAI, Anthropic, Google Gemini, LLM, Midjourney, Stable Diffusion, AI Agent, GitHub Trending AI. - 重点关注源:TechCrunch, The Verge, X (Twitter) 上的 AI 知名博主 (如 Yam Peleg, AK, Andrej Karpathy 等), Hugging Face Daily Papers. ## Step 2: 信息筛选与清洗 从搜索结果中筛选出 5-8 条最重要的信息,标准如下: 1. 重大模型发布(如 GPT-5, Llama 4 等)。 2. 知名 AI 公司的重大融资或人事变动。 3. 爆火的开源项目或 GitHub 仓库。 4. 具有突破性的 AI 研究论文。 剔除重复的、低质量的营销号内容。 ## Step 3: 撰写日报 (Markdown 格式) 请按以下结构撰写日报内容: 1. 【头条新闻】:1-2 条最重要的行业大事件,用简练的语言总结核心影响。 2. 【新工具/新模型】:介绍 2-3 个值得关注的新产品,附上简短的功能描述。 3. 【前沿研究】:1 篇值得一读的论文简介。 4. 【链接汇总】:附上所有相关新闻的原始来源链接。 ## Step 4: 发送邮件 调用邮件发送工具(或通过浏览器登录网页版邮箱),将上述整理好的 Markdown 内容发送至我的邮箱:[请在此处替换为你的邮箱地址]。 邮件标题格式:【Flowith AI日报】YYYY-MM-DD - 今日 AI 重点摘要 # Constraints- 必须确保新闻的时效性,仅限过去 24 小时内的内容。 - 总结语言要精炼、客观,使用中文输出。 - 遇到无法发送邮件的情况,请生成一份本地日志文件作为备份。
降临派了一圈,现在所有的agent产品创业公司的核心技术-大模型(LLM)都不是掌握在自己手里。所有产品做的都是上下文工程(Context Engineering)以及交互(UX/UI)方面的工作。未来产品的竞争也主要在这两方面展开。为LLM搭建高质量的上下文系统就相当于为LLM提供了一个工具齐全的工作台,使LLM知道可以调用哪些工具,这些工具都有什么用。而一个高效的交互系统则为LLM与用户高效沟通提供了可能,让双方都能清晰的知道对方想要如何完成任务?完成什么样的任务?提供各种关于任务的背景信息等。执行任务最重要的推理过程则又LLM来承担。一个大模型公司提供的API。任务完成质量的提升也严重依赖LLM能力的提升。就好像给一个**再好的工具他能做的工作也就那样了。而给一个天才一些简单的工具,他能创造出许多别人想不到的东西。
而Flowith的context playground是我使用过的产品中最有创意的。真的越用越上头。他通过Canvas的交互模式,完美的将context的玩法展现到极致(可能说的有些夸张了,但真的很喜欢)。在更新了2.0后,可以实现上下文的组合,剪切,分支(虽然在聊天框式的交互模式中,这些功能早已见怪不怪,但是我觉得Canvas模式下才能将这些功能的实用性发挥到最大)等功能。非常适合在创意阶段零碎的信息中挖取灵感。如果说聊天框式的线**互是与LLM面对面交流。Canvas就是与LLM在一张白板上共创。
关于Flowith交互模式的几点建议:
可以增加多样化的获取上下文的方式
可以在选择模型列表中增加“默认模型”的功能
可以增加“笔记”功能,以方便的快速查看阶段性成果
可以为上下文框增加“保存到笔记”功能按钮,以方便的记录与LLM交流的阶段性成果
我刚刚看了一下 我跟Flowith第一次对话的时间是 2024 年 9 月份,这么说来 我使用它已经有 15 个月了,但是可能因为体验额度不多的原因,我使用的次数不超过 15 次
但是我意外地发现 他对所有的用户都开放了Gemini 的Nano banana pro功能,且不限量,那么我愿称之为宇宙最强
它的设计方式很独特 跟画布一样
也因此 你可以同时画多幅画
这也是我评价他为 good 的原因,所以我推荐大家如果想用来做图的话 一定要体验一下flowith,很强!
这是我对flowith 的第 2 次降临派,这是第三方我用得最多的
最满意的是生图,是真的诚意满满的把 nanobanana pro 给你端上来的
只要你能用,那么谷歌自己都要收费的4K,也免费提供给你用
生怕你错过了宇宙最强生图模式
也得益于我在降临派领取的 14 天会员,可以让我充分体验这款产品
如果说 PC 时代,我们的消费理念中付费意识只有 2% 的话,
在手机时代,我们的付费意识提高到 20%
那么,在 AI 时代,人们的付费意识提高到 60% 以上,且在持续增加
这当然是因为人们对于优秀产品的认可,这其中就包括flowith
但同时我又确实很担心,因为同类产品竞争太激烈了
像我刚刚发的lovart,就是一个强大的对手,且似乎flowith还没有找到更合适的方式
我目前最常用的是:
1、生图,用它的画板是非常好用,无限扩展
2、分享画板,这是让我眼前一亮的设计,在 X 上有人分享了一整套提示词+结果,非常惊艳,算是集合体的另一种呈现(虽然打开时常遇到bug,就是没有完整显示)
这些差异化的竞争点,才是它们能够留存到现在的原因
祝越来越好
对了,有一次我需要一个非常正式的图片,在flowith上尝试了 1 个小时,仍然没有满意的结果,但是,我去lovart上,5 分钟生成的结果,就非常满意且顺利通过,这让我瞬间觉得唏嘘
Flowith刚出的时候就在用了,一开始很不习惯画布式操作,而且当时的模型也不怎么会操作,所以很快就放弃使用了。
转机是在今年neo发布,推出无限上下文,再次入坑体验就好很多了,因为多了个智能体模式,很多节点不需要自己从头去设计了。
随后就是加上了拐子兄,看到产品方不断地去更新最新的模型,添加很多新功能,包括前一阵刚推出的自由画布,节点之间的操作也更加自由了,所以又继续去给其他人推荐了。
总体上来说是很不错的产品,模型及功能更新都很快。但缺点也有,不习惯画布操作的,还是需要一定时间去适应。
最早感觉交互设计的有些不太习惯,但上手之后发现还是挺好用的。挺独特的 95 后团队,有审美有技术有运营,每次新模型都接入的非常快,并且一直在折腾新的东西,画布、知识花园、Neo...
去年就关注了 Flowith,首创了无限画布流的交互,十分惊艳,是我想象中的交互。
因为很多问题,不是线性思考的,是不断扩展发散的探索性任务。
当时 Flowith 支持多进程,支持各个 Node 之间串起来,组成新的线,很适合头脑风暴的场景。
今年推出了 Flowith Neo,一个新的 Agent 框架,是工程化的集大成之作,动态规划和自我迭代。
我现在最常用的场景就是让 Neo 来做研究报告,然后基于这个报告给出的点,做一些更深的探索。
1266
更新于 2026-05-06