圕人堂话题:圕人视角的生成式人工智能

   圕人堂周讯(总第564期20250228),第29页,宋明昊 整理 宋晓莉 指导 王启云 助理   
图谋:@全体成员 高校图书馆生成式人工智能专题服务推介. https://blog.sciencenet.cn/blog-213646-1474846.html
图谋推介语:自2022年底以来,生成式人工智能的兴起代表了自然语言处理领域的一项重大进展,正在逐渐改变我们的生活和工作方式。深圳大学图书馆、武汉大学图书馆、四川大学图书馆、清华大学图书馆等图书馆网站精心建设了生成式人工智能专题,激扬智慧,精致服务,与时俱进,精益求精,旨在为学习、工作和科研提供有力的支持,值得更好地关注与利用,特此予以推介。
罗维尔:山西大学图书馆已经接入DS。
biochem:不同模型给出的数据呈现方式,包括数据本身,都有差异,而且差异很大。
麦子:不瞒你说,虽然我自己是图书馆员,我除非没办法,除了厕所在哪里的问题,不太愿意问图书馆员问题,因为我一般就是要个一个很直接的回答,而不是你给我说一大堆东西。我就是怕长长的面面俱到的回答。现在的模型秒新日异,而各种东西之间的差别不大。
叮咚:看了前两天的讨论,有点感想,不知道对不对,供批评指正:
1.目前的生成式AI,仍然是概率输出模型,通过上下文输出它认为最有可能的下一个token,或者说字或者词。在不附加联网功能的时候,就是文字工具,即使附加了联网搜索,输出仍然可能是错误的,也可能源头就是错的,也可能整合的时候出错了。
2.所以,认为AI什么都知道、什么都懂、什么都会做是不切实际的。大家希望的什么都会的,那是AGI,是以后的努力方向。
3.有些任务,让AI完成,不如让它写程序运行去实现,可能比直接问的答案更加精准,比如计算、Excel处理等等;有些任务,是需要调用不同的智能体去解决的,单纯的对话式AI做不了,比如联网搜索、做PPT、搜集特定网站的内容。即使多模态AI,也是内部调用不同的功能。也就是需要了解AI的能力边界。
4.如果需要AI对某些方面做出预测,最好引导他给出预测的逻辑或者依据,告诉他边界条件‘不知道不要编造答案’,以减少幻觉。但是,目前来看,只能通过微调或者优化提示词降低AI幻觉,但是无法根本上消除。
5.AI有不同的产品和版本,有的擅长对话、有的擅长写作,有的擅长学术,有的擅长搜索,有的擅长文生图、文生动画,有的擅长构建各种智能体,有些是多模态AI集琴棋书画于一体。比如智谱清言创建自己的智能体可以自定义很多参数,甚至包括‘温度’,用以限定AI输出是‘发散’还是‘严谨’;比如DeepSeek,不开‘深度思考’是V3模型,属于对话模型;开了就是R1模型,属于深度思考模型。前者获得精准答案需要优化提示词,比如角色、背景、任务、示例、格式或步骤、语气……;而后者只需要无歧义的精准提出问题即可,过多的提示词或者思维链要求反而会降低回答的水平,因为已经内置了思维链模式。
6.如果不会写复杂的提示词,可以用kimi的智能体‘提示词专家’。
7.但是不管怎么说,现在生成式AI的掌握的知识的深度和广度,以及文字能力,绝对是超过了绝大多数人。
东东潮潮:今天看万维钢讲DeepSeek,写道:当前AI最大的问题就在于,它不是你自己。
叮咚:@东东潮潮 是的,他不懂自己,把它当做一个陌生的专家,让它明白自己需要什么,遇强则强。
东东潮潮:个人观点在于:AI需要双向启发,只有在人与AI都积极思考的情况下,才能实现较好的人机协同水平。我的一个观点始终是:只有知道了AI不能做什么,我们才能更好地利用AI去做一些什么。同时随着AI技术的快速发展,昨天的看法,可能今天就过时了。我们更加需要贝叶斯精神——根据现实情况实时地调整自己对AI的认知。
图谋:叮咚老师的分享很好。
图谋:圕人堂话题:圕人视角的生成式人工智能. https://blog.sciencenet.cn/blog-213646-1475031.html 图谋按:圕人堂QQ群近期的热门话题为生成式人工智能。本文整理近期两位成员在群中的交流探讨。成员‘叮咚’为圕人堂QQ群‘老’成员,2017年11月加群,现为某高校图书馆副馆长;成员‘东东潮潮’为圕人堂QQ群‘新’成员,2023年10月加群。两位的对话有一定参考价值,值得进一步关注与思考。

以下格式等价,请按需引用或修改后使用:

[1]圕人堂QQ群知识库.圕人堂话题:圕人视角的生成式人工智能[EB/OL].(2025-02-28)[2025-03-19].http://tuan.pub/server/detail.php?id=13549.

[2]图谋,叮咚,东东潮潮,等.圕人堂话题:圕人视角的生成式人工智能[DB/OL].圕人堂周讯,2025(564):29.

[3]图谋,叮咚,东东潮潮,等.圕人堂话题:圕人视角的生成式人工智能[DB/OL].(2025-02-28)[2025-03-19].http://tuan.pub/server/detail.php?id=13549.