最近工作类型从原来的开发切到了SRE,工作内容有了很大变化。从原来的CRUD变为了稳定性保证人员。
不过在小公司,应该就是运维加24 ON CALL接线员。
由于工作内容的改变,要学习的东西也变得很多很多,在学习和搜集资料方面,GPT可谓是我的第一帮手。
经过这些天的使用,发现现在的AI真的发展到一个令人震惊的情况了。
1.知识的收集:GPT已经无敌,如果不是次数限制,我估计以后都不会再使用百度,google等SEO去搜索问题。
GPT总结内容,比我自己一个一个网站鉴定内容和整合信息快多了。现在GPT强大到已经让我相信,当它都找不到正确的信息时,SEO就更难了。
2.上下文的理解:尤其是claude 3.5 sonnet和chat gpt 4o,这两个的上下文的理解都很不错,这让我少打了很多字,用起来非常顺手。我觉得未来微软把4o整合到PC上使用语音的方式提问,生产力又提升一个档次了。
顺带一提,国产大模型在这块差得太远了。以明星GPT-KIMI为例,KIMI的回答总让我感觉是一个机器模板式的回答,光是答题格式就让你怀疑这个回答的准确性,其次就是内容充斥着很多无用的口水话,而chatgpt4o和claude sonnet的回答都是直奔主题并直接show code,并且KIMI生成速度也不如上述两个大模型。
3.内容质量:这里作为程序员视角,主要分析代码运行是否正确,符合预期。其中4o基本给出了错误代码很少,基本通过Prompt矫正都能得到正确可执行的代码,尤其是在配置各种复杂的环境方面,非常好用。通过这方面,我觉得以后单纯的初级CRUD程序员将会被很快淘汰。以后程序员是否熟练使用GPT应该会变成各大公司里招聘的硬性条件。由于Claude目前使用较少,暂时无法评判其正确性。
4.GPT目前的缺点:现在的GPT应该都已经联网,不过信息的实时性上还是差了很多。例如最近开源软件新发布的功能,由于gpt无法整合到这么新的消息,所以回答并不是最优解。还有一个缺点是,回答重复,无法对症修改答案,明明你的提问只是改了一个软件版本,但是依然会生成之前的一大堆重复的信息,比较浪费时间,尤其是当答案很长时,得优化prompt才能让他意识到。
关于使用生成式大模型的感受
近期,我的工作性质从开发转向了SRE,工作内容发生了显著变化。从之前的CRUD开发,转变为负责系统稳定性保障。不过在小型公司中,这个角色更像是集运维和24小时待命接线员于一身。
随着工作内容的改变,需要学习的知识也急剧增加。在学习和资料搜集方面,GPT成为了我的得力助手。经过一段时间的使用,我发现当前AI的发展已经达到了令人惊叹的程度。
1. 知识收集
GPT在这方面的表现堪称无可匹敌。如果不是受到使用次数的限制,我估计未来几乎不会再使用百度、Google等搜索引擎来查找问题。GPT总结内容的效率远超我自己逐个网站筛选和整合信息。现在GPT的能力已经强大到让我相信,当它都无法找到正确信息时,传统搜索引擎就更加困难了。
2. 上下文理解
特别是Claude 3.5 Sonnet和ChatGPT 4.0,它们在上下文理解方面表现出色,这让我节省了大量输入,使用起来非常顺畅。我认为,未来如果微软能将GPT-4整合到PC上,并支持语音提问,生产力将再次得到显著提升。
值得一提的是,国产大模型在这方面还有很长的路要走。以备受关注的GPT-KIMI为例,其回答常给人一种机械化模板的感觉。不仅答题格式让人对回答的准确性产生怀疑,而且内容中充斥着许多无关紧要的话语。相比之下,ChatGPT 4.0和Claude Sonnet的回答都更加直接切题,并能直接提供代码示例。此外,KIMI的生成速度也不如上述两个大模型。
3. 内容质量
从程序员的角度来看,主要关注代码的正确性和是否符合预期。GPT-4在这方面表现出色,很少给出错误代码,即使有,通过适当的提示也能快速得到正确可执行的代码。特别是在配置复杂环境方面,非常实用。基于这一点,我认为纯粹的初级CRUD程序员可能很快就会被淘汰。未来,熟练使用GPT可能会成为各大公司招聘程序员的硬性要求。由于我对Claude的使用还不够深入,暂时无法全面评判其表现。
4. GPT的当前局限性
- 尽管现在的GPT模型已经可以联网,但在信息实时性方面仍有不足。例如,对于开源软件最新发布的功能,GPT可能无法及时整合这些最新信息,导致回答不够优化。
- 回答有时会出现重复,难以针对性修改。即使提问只是改变了一个软件版本,GPT仍可能生成大量重复的信息,这在答案较长时尤其浪费时间。要解决这个问题,需要优化提示词,让GPT意识到变化。
- 本文作者: 宏
- 本文链接: http://sasuke.top/2024/06/30/关于使用生成大模型的感受/
- 版权声明: 本博客所有文章除特别声明外,均采用 MIT 许可协议。转载请注明出处!