作者:vim 版本:pv3.2.4r 注册文库:vim笔记
选择1-2个适合自己的AI服务(建议国内外各选一家),了解AI的基本功能、对话语法先用起来。后续适当了解一些AI的工作原理、后端机制、以及不同的大模型的特性,根据具体的应用场景和需求,逐步进阶使用。在有高级或者特殊的需求(如涉及隐私及保密需求,或者需要建立内部知识库),就需要专业的研究学习一下了。本文主要面向前面两种场景,并简单介绍一下高级应用的方向。
Note:这篇文章只讨论中国用户可以使用的那些AI系统(可能需要科学使用),ChatGPT、Gemini这些目前还没有对中国用户开放的平台不做讨论。同时,本文只讨论可以直接使用的AI服务,那些需要调用API的前端AI应用也不多做讨论。
Note:国外的AI服务普遍需要科学使用,推荐一家国际出行的服务方(eFan),我从2021年就开始使用了,速度和稳定性很不错。
Note:以上AI服务商及相关大模型简介,以及积分使用策略,文末附件部分做简单介绍
从下面的AI系统中,任选1-2个,然后按直觉使用就好,也可以先初步学习一下基础的AI提示词用法。
在前面日常使用的基础上,结合应用场景和需求,选择适合的高级大模型,学习一下AI提示词的用法,并学会专业的Prompt提示词语法与AI进行专业对话,提高对话效率。
在前面AI应用基础上,可以在支持智能体定制的平台上(如POE、智谱AI),定制自己的专用AI智能体角色(如行政助理、行业专家、学术秘书等),并建立专用的知识库(如医学论文集,社会治理档案集,管理咨询资料库等),进一步提高对话质量。
不同的平台可以做的设置各有差别,其中1和2基本上是每个智能体定制平台都有的,后面的其它设置,不同平台各有不同。根据需要选择定制就好。
有些时候,你会面临一些特殊和高级的场景的需求。比如对话内容和分析资料有保密需要(如处理涉密文档和商业文件)和隐私需求(比如涉及自己和他人隐私,或者想整些不和谐的玩法);或者需要为机构或团队内部训练出一个行业性专家大模型,进行内部的高级知识管理。这时候,可以自行架设一个软硬件一体的本地AI环境。
硬件选型相对简单:2020年之后产的Intel-i7、AMD-R7以上的CPU,nVidia-3060-8G、AMD-5600XT以上的GPU,32G以上的内存——硬件性能堆得越足,能跑的AI大模型越多、速度越快,根据需求和预算整就行。(具体成本可以网上查更专业资料)
软件选型如下:
个人(或者2-5人小团队)使用,最简单办法是装个LM-Studio,主打前端应用,直接支持Llama3、Mistral、Phi3等近二十种大模型。Windows、Mac、Linux都可以直接下载安装包安装使用。可以让你像其它普通桌面软件一样,在本地安装使用AI大模型,并可以直接在LM-Studio的界面中使用;打开软件的web服务功能,也可以让其它设备通过浏览器及NextGPT/OpenWebUI这些客户端,访问服务端的大模型服务。
机构(或者团队)使用,推荐在服务端安装Ollama,可以支持包括Llama3、Mistral、Gemini在类的几乎所有开源大模型。同样有Linux、Mac、Win在内的安装包,或者更简单的通过docker安装,一条docker命令搞定。使用方法也类似docker。然后,你同样可以安装OpenWebUI、Dify、MaxKB这样的前端应用,连上Ollama的服务器后,更方面的使用Ollama里的大模型服务。使用体验和前面介绍的那些专业的AI服务类似。
至于Ollama具体如何安装使用,Dify、MaxKB这些前端如何安装配置,是另一个层面需要了解的内容,网上已经有许多详细教程,就不在这篇文章里赘述了。如果需要,可以自行通过Bing、B站等找到相关内容。有这种需求和想法的人,应该也不用我再多说什么了。
kimi(https://kimi.moonshot.cn)是本土AI企业月之暗面推出的人工智能助手,有很强的文字对话、信息检索和文档分析能力,免费,可联网,用户体验极佳。(就是近期用户增长太长,算力不足,时不时躺平。)
智谱AI(https://chatglm.cn)是本土AI企业智谱华章推出的生成式AI助手,功能比较全面,通用问答、创意写作、图片生成、文档分析都有,免费,可联网,可定制智体能,用户体验主流水平。(中规中矩,没有特别好或者不好)
万知AI(https://www.wanzhi.com)是本土AI公司零一万物推出的一站式AI工作平台,特别针对白领工作中的查资料、读文档、做PPT等场景做了特别优化,免费、可联网,支持40万字超长文本。(底层性能比前两家都要强,刚刚推出,用户体验还需要跟上)
Poe(https://poe.com)是美国企业Quora推出的AI成平台,可以直接使用GPT、Claude、Gemini等通用大模型,也可以使用StableDiffusion、Playground、Dall-E等图像大模型进行图像生成,每天免费3000积分,轻度使用基本可以白嫖。(中国用户可直接注册使用,需科学访问)
HuggingChat(https://huggingface.co/chat)是由AI社区HuggingFace推出,提供Llama3、Command-R+、Mixtral等多个可联网的开源大模型。可直接注册,完全免费,彻底摆脱Token焦虑。(中国用户可直接注册使用,需科学访问)
Playground AI(https://playground.com)由PlaygroundAI推出的AI图像创作平台,可以允许用户通过简单的文本提示生成高质量的图像、海报、logo和艺术作品,以及图像修复、去除背景、图像放大等图像编辑功能,或者根据上传已有图像生成新的图像等。且生成的内容可以商用。免费用户每天可以生成50张图,一般情况够用。
Perplexity是一个AI驱动的会话式搜索引擎。允许用户使用自然语言提出问题,并提供结构化的答案,同时支持答案的来源追溯。它主要利用大型语言模型和自然语言处理技术从网络中搜集相关信息,通过Rag技术综合生成对用户查询的回答。多的不用说,当前业内最强AI搜索服务。
知乎直答是知乎推出的一款AI搜索问答产品,功能和特点和Perplexity类似。在此基础上,依托知乎自身的优质内容库,对国内的一些问题回答有一定的优势。
秘塔搜索是上海秘塔科技推出的一款AI搜索引擎,对标Perplexity。原理和Perplexity类似,其特色在于多层级(简洁、深入、研究)的搜索选择,尤其是学术搜索,可以搜索专业学术数据库中的资料,并生成科研场景的资料和综述。同时有非常细致的生成内容的页面呈现。
Coze(http://www.coze.com)是由字节跳动推出的GPTs类似的AI智能体定制平台,可以直接调用多家AI基础大模型、功能插件,并可以定制专用知识库和复杂应用的工作流等。生成各种专用AI智能体。有国内版和国际版。
Dify是一个AI智能体和知识库定制平台,和GPTs、Coze类似。可以通过调用AI基础大模型的API,以及平台提供的功能插件,生成各种专用AI智能体。优势在于知识库定制更专业,以及系统开源,可以在自己的内部部署。
LMsys(https://chat.lmsys.org/)是由加州大学和卡内基梅隆大学推出的AI大模型测试平台,免费使用几乎所有的大模型,无需注册,用的时候对AI输出的内容,顺手提供一下体验反馈即可。
Direct Chat:可以直接使用各种大模型对话,然后通过赞、踩、flag等方式帮着做体验反馈。
Arena(Battle):同时使两个AI大模型对话,然后从中选优,相当于帮着进行大模型的盲测,包括GPT4、Claude-3-Opus这样的高级大模型需要在这里才能被调用
Groq.com是一家专业的LPU硬件和数据分析服务商,提供了多家开源大模型的测试服务,包括:llama3.1、Mixtral、Gemma2等。可以直接注册使用,需要科学访问。特点就是快,极其的快。不足是对话记录不保存、只能进行文本对话。需要临时AI快速对话,且有一定隐私保护需求的,可以备用。
Note:以上开源大模型,均可以在HuggingChat里免费使用
(开发机构,LMsys排名,主要特性,最佳用途)
Note:以上语言大模型和图像大模型,均可以在POE里通过积分使用(每天免费提供3000积分)
基于各家大模型公司基础版大模型,速度快、费用低,智能化程度相对较低,但一般对话和简单信息处理足够。
在AI大模型即有功能的基础上,提供了联网信息搜索功能的AI机器人。
基于各家企业的主流大模型的机构器,成本较高,但智能处理能力较强。
在用户升级为会员后,还可以进一步使用以下高级大模型:
GPT-4-Turbo(350分/条),Command-R-Plus(1130分/条),Mistral-Large-2(1000分/条),Claude-3.5-Sonnet-200k(1000分/条),Claude-3-Opus(2000分/条)
长文本处理版本
如需进行长文本对话,比如处理很长的文本资料,或者在单一对话中长期对话,可以选择以上模型的长文本版本——即在相关模型后面,增加了“128k”、“1M”、“2M”类似后缀的版本。
联系方式
邮件:vim@vim.org.cn 网站:www.vim.org.cn 留言:联系vim同志