这里的 o3 是假设期货王 openai 所言属实、编程和数学能力确实碾压绝大多数人类的 o3。
钱包不够很容易理解。据大聪明用尺子量出来的结论——3500 美金完成一个任务,我实在想不出自己有什么事情值得花这么多钱请 AI 来做。
脑子不够怎么理解呢?难道不是 AI 越聪明、人类需要动的脑就越少吗?
其实不是这样的。我在 o1-preview 发布、大家兴致勃勃用高考或研究生数学题考验 AI 的时候,就已经有这样的感叹——我拿它来做什么好呢?
当然不是出一些我自己不会、并且也没必要会的题给它,就为图个乐子。据说它很擅长复杂推理,是科研人员的好助手,但我并不懂量子物理或生物医药啊。那是我第一次强烈感受到——AI 或许能帮人类走向星辰大海,但这样的 AI 并不适合我,我提不出走向星辰大海的具体问题。
所以,我的 openai 账户里 o1 的额度都是浪费的,我更喜欢用 o1-mini 和 claude 3.5。你也许会想“就算没有科研难题,我们的日常问题也可以让它来做呀,额度不用白不用。”事实上还真不行。
我们日常的任务,不管是开发一款软件、设计一门课程、准备一个演讲、规划一场旅行,都需要用到海量的隐性知识。以规划旅行为例——你告诉 AI 你偏好人文有三天时间,AI 在此基础上可以设计出一个中规中矩的日程安排,但绝对称不上精彩。仔细想想,你自己规划旅程时会用到哪些信息?
最近有点累,行程不要太满;
好冷衣服带少了、第一天就玩室内项目吧等晚上商场吃饭顺便买了厚外套,第二天再去湖边;
宾馆附近感觉有点乱感觉不够安全,晚上得早点回去;
很多年前吃到过这里的一种特产,要去菜场找一找;
……
所有这些你当下身体和心里的感受,所有周围的环境和历史的记忆,都会影响你的决策,使得你做出的方案再妥帖不过。你怎么可能在 prompt 里把这些隐性信息都提供完整?少了隐性信息,AI 又怎么能做出最适合你的旅行计划?
设计课程、准备演讲,都是同理。我更享受和 AI 脑力激荡、在对话中思维流淌灵感迸发。所以,没那么聪明、但速度更快的版本,反而更适合我。
在编程上我有尝试多交出一些控制权给 AI。最近几天我用的一款还在内测中的多 agent 模式 AI 编程工具就时常给我惊喜——不用考虑 UI 细节,AI 直接做的前端交互比我能想到的要细致精彩得多。但我不擅长的前端交互可以给 AI,功能却还得自己想、并规划好 milestone 一步步教给 AI。
有没有可能,o3 能把功能也都做得比我更出色呢?
它光懂算法、没掌握人情世故、不知道我的独特偏好,大概率不行。
但假如它(或者 o4、o5)真的就那么强大了呢?
那我会对自己存在的意义产生极大怀疑。
科研人员在用 o3 完成所有复杂推理计算任务之上,还会有他自己的思考。
如果我的脑力不足以在 AI 产出的结果之上做更多事儿,到底是我在用 AI,还是 AI 在借我之手触发它自己?
但我知道,AI 再强大,我也还是有我独特的价值。AI 作为人类智慧的加权平均,不加任何“种子”,产出的内容就是平均值。我作为独立存在的个体,以有我特色的方式去使用 AI,得到与我相关的结果,这种多样性本身就是价值。
正如我在让 AI 画十万只猫的实验中写的,只有我自己在某一刻起心动念创作出来的猫才是对我有意义的猫。所以我并不想使用一款太过强大以至于我无法驾驭的 AI(尤其它还那么贵那么慢我只能小心翼翼祈祷着干等),我更愿意找一个可以和我互相激发的 AI 伙伴,人机协作进行更出彩的创造。
今天在娜娜的 ICE 社群里,老师们正好聊到 AI 削弱长期学习的危险。
在人机共生挑战的过程中,我看到很多孩子的脑力尚不足以应对 AI。面对 AI 哗哗吐出的内容,孩子立刻就信息超载懵圈了,难以选择判断、不会质疑,只能盲目接受。
因此,我们会尝试让孩子在使用 AI 之前先把自己的脑子“榨干”。自己多想,对问题有了初步的认识后再和 AI 协作。设计苏格拉底式的 AI 导师,不要一次性吐出太多答案,而是循循善诱引导孩子,也是一种办法。下一期人机共生挑战,还会设计更多脚手架,帮助孩子们对 AI 的回复进行追问和决策,更好地思考。
在全情拥抱 AI 的同时,我们确实要多思考和探索,找出能和 AI 势均力敌协作共创的方式。