标签:WebLlama,Llama,Web智能助手,人工智能,自然语言处理 时间:2024-04-25T14:43:08
WebLlama是一个致力于构建高效人性化Web浏览智能助手的新项目。该项目的目标不是取代用户,而是为用户配备强大的智能助手。项目主要包含以下几个方面:
WebLlama项目发布了一个名为Llama-3-8B-Web的强大行动模型,用于构建可以遵循指令并与用户对话的Web智能体。该模型在超过24K个Web交互实例上进行了微调,包括点击、文本输入、提交和对话行为。
Llama-3-8B-Web模型在WebLINX基准测试中表现出色,优于零样本GPT-4V(添加了屏幕截图,因为它支持视觉)和其他微调模型(使用API的GPT-3.5、在Mind2Web上训练的MindAct,也在WebLINX上进行了微调)。下图显示了各模型的性能对比:
总分是IoU(针对目标元素的操作)和F1(针对文本/URL)的组合。这里的29%直观地告诉我们模型在现实世界中的表现如何,显然不需要100%才能获得一个好的智能体,但如果一个智能体获得100%,那肯定会很棒!
WebLlama项目的潜力对于本地使用来说可能会非常大,因为使用本地托管的模型执行任务可能会更好,你可以轻松审核,而不是使用公司提供的智能体,后者运行成本高、延迟高,而且可能不太安全/私密,因为它可以访问你的整个浏览历史。
接下来,WebLlama项目计划将行动模型与BrowserGym或Playwright等部署平台集成。此外,还将持续策划、编译和发布数据集,以训练更好的智能体,并增加更多自动Web导航的评估基准。
WebLlama项目的目标是打造高效人性化的Web浏览智能助手,相信随着项目的不断发展和完善,必将为人们的Web浏览体验带来革命性的变化。让我们拭目以待!
重磅!MetaAI开源4050亿参数的大语言模型Llama3.1-405B模型!多项评测结果超越GPT-4o,与Claude-3.5 Sonnet平分秋色!
Meta即将推出开源的CodeLLaMA:一种新的编程AI模型
重磅!Meta发布LLaMA2,最高700亿参数,在2万亿tokens上训练,各项得分远超第一代LLaMA~完全免费可商用!
抛弃RLHF?MetaAI发布最新大语言模型训练方法:LIMA——仅使用Prompts-Response来微调大模型
能否用85000美元从头开始训练一个打败ChatGPT的模型,并在浏览器中运行?
2022年全球最大的10家数据处理相关的创业公司
斯坦福2022年度AI指数报告简介及下载链接
内容生成方向的人工智能企业
吴恩达的LandingAI究竟是一家什么样的创业公司
人工智能初创企业Hugging Face是什么样的企业——HuggingFace简介
构建人工智能应用的开发者指南
工业蒸汽量预测-特征工程
一张图看全深度学习中下层软硬件体系结构
亚马逊最新发布Feature Store简介
Scikit-Learn最新更新简介
Dirichlet Distribution(狄利克雷分布)与Dirichlet Process(狄利克雷过程)
回归模型中的交互项简介(Interactions in Regression)
贝塔分布(Beta Distribution)简介及其应用
矩母函数简介(Moment-generating function)
使用R语言进行K-means聚类并分析结果
普通最小二乘法(Ordinary Least Squares,OLS)的详细推导过程
H5文件简介和使用
深度学习技巧之Early Stopping(早停法)
手把手教你本地部署清华大学的ChatGLM-6B模型——Windows+6GB显卡本地部署
Wishart分布简介