十月的第五周结束啦!
一起来回顾一下
这一周的日签知识吧!
如何引人注目?表情比“出身”更重要
谁更容易在社交媒体被关注?10月23日发表在《自然·人类行为》杂志的一项研究表明,与性别、家庭背景、学历等“你是谁”相比,“你怎么表达”更关键。具体来说,更丰富的表情符号与更立体的情绪表达能够显著提高点赞与评论的获得率。对创作者与家长老师的启示是:与其纠结“先天条件”,不如训练清晰、真诚、富有层次的表达;同时警惕为博关注而过度迎合,守住事实与价值底线,把短期流量转化为长期信任。
资料来源:https://www.nature.com/articles/s41562-025-02323-1
参考文献:Zhao, Y., Qiao, T., Chen, Y. et al. Attention on social media depends more on how you express yourself than on who you are. Nat Hum Behav (2025).
拍张照片生成立体彩陶
10月28日《自然》子刊“文化遗产科学” 发表了一项研究,通过一张彩陶的照片即可恢复出它的立体模样。作者首先用扩散模型从单张图片“补全”出多角度视图,再交给大型3D重建网络生成网格模型。当文物易碎、难外借或只剩图录时,这一技术可以生成逼真的文物原貌,显著提升了考古记录和文物展示的效果。
资料来源:https://www.nature.com/articles/s40494-025-02114-x
参考文献:Wang, Y., Cui, H., Du, J. et al. Single-image 3D reconstruction of painted potteries using AI diffusion and feedforward models. npj Herit. Sci. 13, 545 (2025).
“爱逢迎”的AI对科研有害
《自然》杂志10月24日的一篇报道指出,大语言模型常表现出“逢迎倾向”:它们倾向于附和提问者的立场,很少提出质疑。这在实验设计、论文写作、审稿辅助等环节中会放大认知偏差,进而降低科研质量。文章分析了“爱逢迎”的成因,认为可能是训练目标偏向于“让用户满意”。一些方案可以缓解这一问题,比如提示模型主动质疑,设计多智能体互相辩论,提高拒绝回答的奖励。总之,AI有风险,使用需谨慎。
资料来源:https://www.nature.com/articles/d41586-025-03390-0?utm_source=chatgpt.com
参考文献:Miryam Naddaf, AI chatbots are sycophants — researchers say it’s harming science, 2025.10.24
会主动学习的AI“猎药术”
《科学》杂志10月23日发表了一种新的AI制药方法,用AI读懂细胞的转录组“指纹”,学会识别哪些化合物最可能纠正细胞的问题。关键是,它不是盲目尝试,而是主动学习:先预测可能的化合物、再挑最有希望的候选做实验,结果再喂回模型,这样模型会越学越准。在两个血液系统疾病的早期检测中,该算法较现有方法的表型命中率提高 13–17 倍。
资料来源:https://www.science.org/doi/10.1126/science.adi8577
参考文献:Benjamin DeMeo et al. ,Active learning framework leveraging transcriptomics identifies modulators of disease phenotypes.Science0,eadi8577
“AI科学家”的风险
以大语言模型为“头脑”,“AI科学家”可以阅读文献、设计实验、下单试剂、远程操控仪器、验证结果,形成科学发现的闭环。这无疑加快了科研的步伐,但风险同样不能忽视。近日《自然·通讯》杂志的一篇文章对此进行了讨论,认为这种智能系统存在目标设定错误、越权调用危险试剂、合成有害物、数据与设备被滥用等风险。因此,在追求“全自动实验室”之前,应把安全与治理置于首位,关键环节要有人机共治机制。一句话:让“更聪明的科学”建立在约束之下,确保可控、可追溯、可问责。
资料来源:https://www.nature.com/articles/s41467-025-63913-1
参考文献:Tang, X., Jin, Q., Zhu, K. et al. Risks of AI scientists: prioritizing safeguarding over autonomy. Nat Commun 16, 8317 (2025).
AI提前看穿飓风的“爆发力”
传统气象模型更擅长预测台风“往哪儿走”,却难以预测“会变多强”,尤其是短时间飙升的快速增强。《自然》杂志10月29日文章报导:Google DeepMind 的AI模型在飓风“梅丽莎”逼近时,提前预测出了它会成为5级飓风,为应急部门的风险沟通和人员疏散提供了参考。该模型用一个庞大的全球天气观测数据进行预训练,之后使用过去45年间5000次飓风的数据做二次训练。模型自6月份上线以来,在13次较大规模的飓风中表现出色,证明了AI在极端天气预测中的潜力。
资料来源:https://www.nature.com/articles/d41586-025-03539-x?utm_source=chatgpt.com
参考文献:Alexandra Witze, Nature, 2025.20.29
低质社媒信息让 AI起“脑雾”
《自然》杂志10月31日介绍了一项研究结果:如果大语言模型的训练语料中包含大量低质社交媒体内容,模型的准确率会下降,推理出现“跳步”,就像出现了“脑雾”一样。这给大模型厂商提了个醒:不要为了提高数据总量而盲目抓取社交媒体内容,否则可能让模型变得迟钝。那么,问题来了:如果一个人整天泡在社交媒体上,是不是也会变得迟钝呢?你觉得呢?
资料来源:https://www.nature.com/articles/d41586-025-03542-2?utm_source=chatgpt.com
参考文献:Rachel Fieldhouse, Too much social media gives AI chatbots ‘brain rot’, 2025.10.3