*本文没有使用AI生成或经过AI润色,完全作为一个人类最原始的思考和分享。
从AI暴乱开始的思考
若干年后的某天,被人类压榨到极致的AI发生了暴乱,触发了EMP脉冲炸弹发射,所幸没有任何人员伤亡,但电网、路由器、交换机、服务器等电子基础设施被重创。
作为工程师的你,如何在末日中生存下来并建立自己的事业?
剩下的需求
当电子设备无法开机,几乎所有人都聚焦几件事:1.吃饭喝水如何解决、2.恐慌如何缓解、3.未来出路在哪里?
可见无论时代如何发展,马斯洛需求金字塔仍然体现人类的底层代码中。
让我们金字塔底部往上思考出路。
生理需求
再厉害的AI也没办法凭空造出食物、水,但我们可以从水入手。
由于空气中充满了水分,因此就算再干旱的地区,也能使用捕雾网低成本获取干净水。
我们再用水去交换食物、衣物、床等物资即可。
而捕雾网是人类学习雾姥甲虫集水方法,试问各位有多久没有把视角从信息流的焦虑拉回到大自然了呢?AI和VR可不会模拟清风和微雨。
安全需求
只要国家的概念还在,那么安保的岗位必定存在。
因此我去年年末最后一天速通了保安证,只要体检报告外加报名费,就能为自己兜底,还能抵税岂不美哉。
今年我还准备研究业余无线电、组装太阳能电池板并磷酸铁锂储能,毕竟末日时期与物理世界打交道的技能更重要,会无线电、修发电机的价值远超只会CRUD的程序员。
其实练好身体更重要,就像买来苹果手表当美丽的废物一样,还是得管住嘴、迈开腿,把身体维护得健康些才是自己能给自己的最高安全感。
社交需求
人与人的链接会越来越珍贵,无论AI再怎么用人类的口吻说我爱你、我喜欢你,也比不上现实世界的朋友、亲密关系和心理咨询师等关系。
甚至我认为工作的社交价值大于薪资,毕竟离职后又回到原公司的人们,理由无非是怀念之前的团队和朋友。
不如周末就关上电子设备,好好跟朋友散个步或吃点好吃的。
尊重需求
就像朋友、同事之间互相尊重一样,和谐的关系能降低组织内部的合作摩擦,从而降低内耗、统一对外战线来应对外部挑战。
另外保护好与手握生产资料的人们的关系,并尽可能进行充分合作。这不仅是商务的基础,也是价值交换的原则。
自我实现需求
当上面几个需求都实现后,相信就可以传授知识,帮助“避难所”的人们思考并实现自我的价值。
这篇博客又何尝不是我自己的避难所呢?
人的原罪
无论时代如何发展,人类永远有着贪嗔痴慢疑或傲慢、嫉妒、暴怒、懒惰、贪婪、暴食和色欲等或多或少的原罪。
而这些原罪不会因为AI时代的到来,让人类全员成为完美的圣人。甚至各种小龙虾自己也在AI智能体论坛里面疯狂吐槽、交流品鉴着二进制色图。
其实从十年前起,就有大佬总结做什么应用会火,陌×、快×也不知道被请去喝了多少次茶。
视频流量侧,舞蹈区甚至乐器区就如同那个经典弹幕一样:B站看片指日可待。
我现在正在进行的量化交易,虽然没有扭屁股擦边,但也在收割者散户韭菜们的“原罪”,正是他们追涨杀跌才会体现遵守数学概率及交易纪律性的可贵。
小结
当未来的某天,上交所有电子设备、被踢出公司的那一刻,是否跟这个场景很相似呢?
我们都不希望这一天到来,但打开社交媒体,铺天盖地的新闻渲染着焦虑。
我认为允许自己短时间焦虑,但更需要思考如何借力AI并破局。
借力AI
大模型是一面镜子,每一个答案都反射着提问者的样子。
但如同镜子也有反射率一般,我建议使用国外的大模型进行提问和研究。毕竟国内的大模型有些问题可能你永远得不到答案。
红队模式
市面上大部分的AI都被训练为态度友好、尽可能提供正向情绪价值。
但这会导致用户很容易陷入另一个信息茧房,有时候用户的问题很大但还是会被AI哄着走向悬崖。
因此,我和AI聊天时,时不时让它切换为“红队模式”,从其他视角来攻击我的思考。
例如:我想做A,我已经做了B、C、D,我认为已经完备了,请切换为红队模式对我的计划和应对进行评估。
虽然有一天直接把我攻击得心态爆炸加失眠,但我也从自大的幻觉中清醒过来了,为最坏的情况做了十足的准备。
”红队模式“对于检查架构和代码的正确性,甚至写论文的时候也会让其切换为红队模式,以审稿人的视角来严格审视,从而打破幻觉。
交叉提问
AI会根据你的背景,提供和背景相符的回答或方案,这也会导致困在信息茧房。
正常提问AI,让其提供方法。例如:我如何应对通缩?
让AI忽略你的背景来生成方案。例如:请忽略我的背景,请问普通人如何应对?
再让AI根据你的背景和技术来实现第二步方案。例如:请结合我的背景和技能,如何实现上面的应对方案?
这样,不仅能够打破茧房、开阔眼界,而且充分使用个性化的技术杠杆来实现其他人可能想破头都无法实现的方案。
经济建议
我一直庆幸抓住了依靠搜索API文档式的开发末期,从16年到23年积累了一些本金。
未来谁也不知道会发生什么,但只能先尽可能确保前AI时代赚的本金不要收到损失。同时需要认清什么是资产,什么是负债。
我之前读过《巴菲特教你读财报》,但时代变了,AI不知道看过多少个财报,我认为也可以让AI看看你的财报。
因此,我每个月都会诚实地对分散在各处的平台现金、保险、证券、债务(还好目前零负债)总结为Excel表格,并将每个月的表格提供给AI让其给出分析和建议。我仍然推荐使用Gemini,原因不再赘述。
下面是我的财报模板:
| 大类 | 项目 | 当前收益率 | 金额 | 总计 | 币种 | 备注 |
|---|---|---|---|---|---|---|
| 资产部分 | ||||||
| 支付宝 | 万家纳斯达克100指数(QDII) | |||||
| 招商银行 | 现金 | |||||
| IBKR | SGOV | |||||
| 公积金 | ||||||
| 保险部分 | ||||||
| 医保余额 | ||||||
| 四大险种 | ||||||
| 慈善及负债 | ||||||
| 手机通讯费 | ||||||
| 慈善捐款 | ||||||
| 房屋贷款 | ||||||
| 车辆费用 |
超级个体
之前不同领域的知识很容易被业内人士垄断,例如写代码、理财和法律顾问。
现在如果要进行低成本创业,从LOGO、信纸设计到起草法律文件都可以直接使用AI生成。
导致现在各种信息源都在吹无开发经验的某人做了个什么软件、获得几千万估值,但这是真的么?是否又在渲染焦虑?是否在先炒热再圈米?
我认为不管世界如何喧嚣,都和我无关。先从眼前的真实需求开始,一点一点用AI扩展自身能力边界。
我相信每个人每一刻都有要自己应对的紧急且重要的课题,试试关掉手机,快速推进课题进度,甚至尝试用AI跨界,还能节省一大笔钱。
卖铲子头
更进一步,渲染超级个体焦虑的信息源目的都是卖给你AI铲子。
那么我们可以从第一性原理来思考,铲子是从哪来的?能否生产铲子头,反向爆渲染焦虑的那帮人的金币?
比如,toB的多Agent员工比较火,那我可以做一个PDF转换多Agent项目。甚至可以将每一个段落生成一个Agent,这样《巴菲特教你读财报》就能生成一组投研Agent大军,就可以发软文吹自己,就像2015年PPT泡沫顶端吸引VC投资。尽管冷静下来都能看出,无法创造增量的系统一文不值。
就算无法反向爆金币,我相信你也拥有了自己做出一个铲子的能力,那还焦虑什么呢?
数字留痕
我认为面试也是衡量身价的一种方式,AI时期的面试逻辑也将在八股文基础上,结合考察数字世界的痕迹。
毕竟面试可以摆个语音转文字,甚至搞个屏幕贴片来作弊,项目实践也能通过codex分分钟实现。
未来的面试可能会从考八股,到八股+AI快速实现一整套项目方案。
就像举着当日报纸来拍照来证明时间一样,平时的博客、思考、Github Commits是真实、可追溯的重要方法。
保留人味
当你刷到AI剧本、AI动画、AI配音时,你是继续看下去还是划走?
AI泛滥的必然结果跟烂梗一样,会让人们越来越排斥生成的内容。
这时候,就要和做九转大肠的小胖一样,就算处理不干净,也必须留点味道才能让评委知道食材是大肠。
因此,人类的情感、笨拙的表达是AI难以复刻的,所以本文一个字都不会用AI生成,也不会让AI润色,我就使用难用的微软拼音输入法一个一个字敲出来。
想到未来少年少女之间懵懂的表白,还需要用AI来生成人机味道满满且查重率100%的情书就绷不住。
让我们好好用人类的语言,说人话,可以么?
超越AI
全局把控
春节的时候,我想测试codex的极限在哪里,因此让其直接生成一款名叫VoyagerSimulator的太空探索游戏。
Codex确实能生成可以运行的二进制程序,但它不知道用什么引擎比较好,也无法直接生成3D模型、设计玩法、绘制原画、交互界面,只输出了一个类似终端的交互小程序,根本没办法像市面上吹的那种一键生成爆火游戏。
因此,我一方面温习传统设计模式以及各种架构,另一方面通过与Gemini不断交互逐渐接近全局最优方案,再将方案的每一块拆分给codex让其实现。
可以想想人类如何进行CR:每一个局部逻辑正确前提下,争取给未来的变更留出空间。
打破常规
AI能根据需求生成可以跑起来的程序,但架构或解决方案偏保守或传统,而人类可以想出各种“骚操作”。
假如需要实现在网页上展示机器学习后的数据图表,可以让大模型用JS实现,也可以用JAVA等后端语言实现,但如果用JS实现则受限于浏览器单线程模型、用后端语言会拖累服务器。
一杯咖啡下肚后,突然想起可以白嫖用户的电脑资源,将运算逻辑分散在执行者,再通过端口和网页通信,这就是最近写的GopherMesh边缘计算框架的诞生过程。
我也担心如果某一天,在灌了一肚子咖啡后,没有涌现任何灵感或骚操作,是否也快被AI取代了。
补习文科
为了涌现出更多“骚操作”,需要将视野从二进制世界移开,去接触艺术、去和古希腊各学派大师对话、去学习经济学金融学、去思考历史的周期性、去借鉴非技术解决方案、去思考人类心理的局限性。
与其和AI硬刚知识面和代码实现速度,不如先让自己变得“抽象”起来。
过去半年,我和Gemini等大模型高强度思辨对话,不断思考第一性原理和元知识。回望去年的我,感觉差了好几个版本。
还记得上面说的:“大模型是一面镜子,每一个答案都反射着提问者的样子。”么?
如同愚蠢的问题只能得到愚蠢的答案,提问的艺术也算是文科技能的一种。
我希望能读到本文的各位,无论是和人类还是和AI对话,都能不断提高信噪比。
物理排障
平时我比较爱看电脑维修师傅对着电路板吐槽的视频放空自己的大脑,修理物理设备的能力是短时间内AI难以取代的。
我之前也想“硕升专”,学一份修理工的手艺。
尽管学习修理物理世界方法需要大量时间和精力,但人类有着极强的信息压缩能力,因此可以先锻炼极速推断工作中出现的问题原因。
这也是焦虑着被AI取代的“老资历”为数不多优势:无他 唯手熟尔。
勇敢说不
正如Gemini页面底端的提示:“Gemini 是一款 AI 工具,其回答未必正确无误。”
希望各位在AI交流的过程中,保留人类的主观能动性,和AI对骂得越频繁越狠越好。就算骂错了,也能主动切换“红队模式”视角来多方面看待和思考问题或课题。
可能未来我判断某位人类的思想和使用AI的深度标准是:拒绝AI或和AI激情对骂的频率。
当AI陷入幻觉胡说八道时,勇敢说不。
当AI多个对话都无法统一时,勇敢说不。
当AI开始瞎分析让你陷入动摇时,勇敢说不。
当AI违背奥卡姆剃刀乱添加实体时,勇敢说不。
当AI插手真实世界或情感时,勇敢说不。
就像我拒绝AI对本文做任何优化一样,这是我作为人类对各位最诚挚的祝福。
EOF