标签:AI服务,ChatGPT,Claude,Perplexity,GPT-4,对比评测 时间:2024-04-25T15:05:38
很多人最早接触AI服务都是从OpenAI的ChatGPT开始的。GPT-4发布后,订阅了ChatGPT Plus的用户都惊叹于它的能力。但随后ChatGPT的质量开始下降,比如会出现”/ Your code goes here /“这样的懒惰回复。与此同时,Google推出了Gemini Advanced,与Google办公套件紧密集成,但在编程、数学等逻辑任务上还是要避免使用。
Copilot Pro使用了与ChatGPT Plus相同的GPT-4模型,同样存在懒惰回复的问题,上下文窗口也更小,限制更多。它与Microsoft办公套件的集成对个人用户来说也不太理想。
Claude一度成为最好的AI助手,每8小时可以发送100条消息。但随着用户的增多,现在每5小时只能发送45条消息,而且上下文越多,消息数量上限越低。200k的上下文优势几乎被抵消,每5小时只能发5条消息,Claude的优势荡然无存。
Perplexity提供了3个模型,每天可发600条消息,可以突破知识截止日期进行互联网搜索。但最近将Claude消息上限降至30条。它在编程方面表现一般。Phind是一个类似的AI搜索引擎,提供了更透明的使用量显示,但与Claude一起使用时bug较多,而且会随机切换到自家的70B模型。
You.com提供了无限的使用量,但GPT-4 Turbo模型感觉被过度简化了,怀疑其检索增强系统还需完善。它适合经常使用AI的学生用户。Omni GPT让人感觉像是一个骗局,客服回复速度慢,限制和隐私政策定义不清,价格最便宜但可疑。它还有很多技术问题和延迟。
Poe曾经是性价比最高的选择,提供多种AI模型和上下文长度。但后来用点数取代了消息上限,点数会通胀,使用Claude一次要1万点,100万点根本不够用。这个定价机制彻底毁掉了Poe。
ChatGPT推出新的GPT-4 Turbo模型后,又重新成为了最佳选择。提供40条保证消息,支持自定义指令、文件上传、视觉、图像生成等,还能在后台浏览网页获取最新信息。如果Poe恢复消息上限机制可能还有的一拼。普通用户如果也能获得128k上下文就更完美了。
除了Phind、Perplexity、You.com,其他第三方服务大多是以更低的质量来高价倒卖。它们没有足够的资源来兑现承诺,可能是检索增强系统实现较差,也可能是在撒谎。使用这些服务要格外小心,尤其是Vello和Omni GPT,前者非常可疑,后者还有待时间检验。
最新消息显示OpenAI可能还在训练GPT-5,可能在今年年中发布GPT-5
OpenAI即将推出DALL·E Controls功能,可以更加精细化控制DALL·E图片生成的效果
OpenAI隐藏的一个ChatGPT新功能:在对话框中@任意GPTs,获得回答!一个巨大的由各种GPT组成的聊天世界即将到来
OpenAI可能即将增加按年付费的选项,一年的ChatGPT Plus仅需200美元
GPT-4在11月份以来变懒的原因可能已经找到:大模型可能会在节假日期间变得不愿意干活,工作日期间却更加高效
来自OpenAI的官方解释:ChatGPT中的GPTs与Assistants API的区别是什么?有什么差异?
ChatGPT内置隐藏debug功能:支持下载原始对话、可视化对话分支等
ChatGPT即将发布的新版本:增加自动标签管理并去除对ChatGPT回答的点赞按钮
ChatGPT即将可以读取谷歌和微软的云盘数据为你管理私有数据!
ChatGPT颠覆更新!即将发布的ChatGPT新版本带来巨变,新界面和可以自定义GPT-4功能:可以对接私有数据与私有接口的个性化ChatGPT即将到来!
Anthropic发布新一代Claude 3.5模型:全新的Haiku 3.5和升级版Sonnet 3.5
Anthropic发布Claude3.5-Sonnet模型,超过Claude3系列所有模型的能力,并且支持多模态!
最像OpenAI的企业Anthropic的重大产品更新:GPT-4最强竞争模型Claude2发布!免费!具有更强的代码能力与更长的上下文!
Dirichlet Distribution(狄利克雷分布)与Dirichlet Process(狄利克雷过程)
回归模型中的交互项简介(Interactions in Regression)
贝塔分布(Beta Distribution)简介及其应用
矩母函数简介(Moment-generating function)
使用R语言进行K-means聚类并分析结果
普通最小二乘法(Ordinary Least Squares,OLS)的详细推导过程
H5文件简介和使用
深度学习技巧之Early Stopping(早停法)
手把手教你本地部署清华大学的ChatGLM-6B模型——Windows+6GB显卡本地部署
Wishart分布简介