大模型的发展速度很快,对于需要学习部署使用大模型的人来说,显卡是一个必不可少的资源。使用公有云租用显卡对于初学者和技术验证来说成本很划算。DataLearnerAI在此推荐一个国内的合法的按分钟计费的4090显卡公有云服务提供商仙宫云,可以按分钟租用24GB显存的4090显卡公有云实例,非常具有吸引力~
华盛顿大学研究人员与Google的研究人员一起在5月3日公布了一个新的方法,即逐步蒸馏(Distilling step-by-step),这个方法最大的特点有2个:一是需要更少的数据来做模型的蒸馏(根据论文描述,平均只需要之前方法的一半数据,最多只需要15%的数据就可以达到类似的效果);而是可以获得更小规模的模型(最多可以比原来模型规模小2000倍!)
基于Emebdding的检索增强生成效果不同模型对比:重排序十分有利于检索增强生成的效果
重磅!PyTorch官宣2.0版本即将发布,最新torch.compile特性说明!
推荐系统之概率矩阵分解的详细推导过程(Probabilistic Matrix Factorization,PMF)
如何提高大模型在超长上下文的表现?Claude实验表明加一句prompt立即提升效果~
线性数据结构之跳跃列表(Skip List)详解及其Java实现
使用Jupyter Notebook编程与python脚本编程的差异
如何让开源大模型支持ChatGPT的Code Interpreter能力:基于LangChain的开源项目Code Interpreter API