█ 脑科学动态
睡眠中的瞳孔变化如何塑造我们的记忆
“分子手电筒”技术利用超薄光探针检测小鼠脑转移
大脑的“拉锯战”:经典条件反射和操作条件反射之间的选择
青少年大脑结构差异可能预示着早期药物使用风险
CRAFT-MD评估显示:人工智能医生需“再进修”
科学家发现“死亡计时器”,核仁大小决定细胞寿命
█ AI行业动态
Google全新Gemini AI代理亮相,重塑未来智能助手
微软研究引发参数猜测热潮:GPT-4o-mini仅8B?
█ AI研发动态
用机器学习设计未来材料:预测不再受数据限制
AI如何预测并操控你的下一步选择?
情境学习:无需重训模型的机器学习新方法
人工智能如何破解古代文本并改写历史
人工智能如何应对医疗文档中的“致命错误”
从单词到概念:语言模型的革命性进化
脑科学动态
睡眠中的瞳孔变化如何塑造我们的记忆
大脑在睡眠中如何巩固新旧记忆而不互相干扰?康奈尔大学的研究团队,通过实验观察小鼠睡眠中的瞳孔动态和神经活动,揭示了非快速眼动睡眠的微观结构如何管理记忆重播。这项研究不仅提供了记忆巩固的新视角,还可能助力人工神经网络的优化。
研究团队采用了瞳孔测量技术(pupillometry)结合神经电极记录,分析了小鼠在睡眠中的记忆活动。他们发现,非快速眼动睡眠存在两个独特的子阶段:瞳孔收缩阶段与瞳孔扩张阶段。在收缩阶段,新记忆在尖波波纹(sharp-wave ripples)中被重新激活和巩固;而在扩张阶段,旧记忆的重播占据主导。这一发现通过闭环干预实验得到验证:当干扰瞳孔收缩阶段时,小鼠对新任务的记忆能力显著下降,而对旧任务的记忆几乎不受影响。
研究还揭示了不同子阶段的神经活动特征:瞳孔收缩阶段表现出更强的外源性兴奋输入,而扩张阶段则显示出较高的局部抑制参与。这表明大脑通过微观结构的分隔机制,在睡眠中实现了不同认知过程的复用,从而促进连续学习而不产生干扰。研究发表在 Nature 杂志上。
#认知科学 #瞳孔动态 #记忆巩固 #尖波波纹
阅读论文:
Chang, Hongyu, et al. “Sleep Microstructure Organizes Memory Replay.” Nature, Jan. 2025, pp. 1–9. www.nature.com, https://doi.org/10.1038/s41586-024-08340-w
“分子手电筒”技术利用超薄光探针检测小鼠脑转移
大脑分子变化的非侵入性监测是生物医学领域的一大挑战。西班牙国家癌症研究中心(CNIO)、西班牙国家研究委员会(CSIC)等机构的研究人员,依托 NanoBright 联盟,开发了一种“分子手电筒”技术,通过超薄光探针实现小鼠脑分子特征的精准分析。研究揭示了该技术在监测脑损伤和检测脑转移标记物方面的潜力,为脑疾病研究和诊断提供了全新工具。
▷振动光谱仪/Mariam Al-Masmudi。Credit: Mariam Al-Masmudi. CNIO
振动光纤测量法(vibrational fiber photometry)依托拉曼光谱(Raman spectroscopy,一种通过光散射分析分子化学组成的方法)和超细探针(尖端仅1微米),是本研究的核心技术。实验中,该探针可深入小鼠脑组织而几乎不造成损伤,通过捕捉分子的独特光谱信号,实现对病变区域的高精度监测。为排除探针噪声,研究团队采用深度学习算法增强数据分析的准确性。
研究验证了技术的广泛适用性,包括监测创伤性脑损伤引起的分子变化、检测脑转移标记物,以及区分由肿瘤或创伤引起的癫痫区域分子特征。此外,探针能进一步辨别不同脑肿瘤的突变特征,为疾病分型和诊断提供了可能性。研究结果表明,振动光纤测量法为脑功能的光学探测提供了微创且高效的解决方案,未来有望在基础研究和临床应用中大放异彩。研究发表于 Nature Methods。
#神经技术 #脑转移 #振动光纤测量 #拉曼光谱 #分子手电筒
阅读论文:
Pisano, Filippo, et al. “Vibrational Fiber Photometry: Label-Free and Reporter-Free Minimally Invasive Raman Spectroscopy Deep in the Mouse Brain.” Nature Methods, Dec. 2024, pp. 1–9. www.nature.com, https://doi.org/10.1038/s41592-024-02557-3
大脑的“拉锯战”:经典条件反射和操作条件反射之间的选择
大脑如何在经典条件反射和操作性条件反射之间选择?特拉维夫大学医学与健康科学学院的 Moshe Parnas 和 Eyal Rozenfeld 研究团队,通过果蝇实验揭示,大脑无法同时进行这两种学习。当尝试同时形成两种记忆时,会导致学习失败。
研究采用果蝇模型,探索经典条件反射(基于被动刺激联想的学习)和操作性条件反射(通过行为结果主动学习)的神经机制差异。在实验中,研究人员训练果蝇将气味与电击联系起来,分别采用经典和操作性条件反射。结果显示,经典条件反射下,果蝇冻结不动,而操作性条件反射下,果蝇试图逃离。当两种学习方式同时作用时,果蝇无法形成有效的学习。
研究进一步利用遗传工具揭示,大脑的“导航中心”(navigation center,一种控制行为优先级的脑部结构)通过抑制经典条件反射路径中的神经可塑性,优先激活操作性条件反射路径,从而防止两种记忆同时干扰行为。这一机制表明,大脑在应对多任务时,会优先选取一种学习模式来避免混淆,为未来治疗学习障碍(如注意力缺陷多动症或阿尔茨海默病)提供了新思路。研究发表在 Science Advances 上。
#认知科学 #经典条件反射 #操作性条件反射 #导航中心 #果蝇模型
阅读论文:
Rozenfeld, Eyal, and Moshe Parnas. “Neuronal Circuit Mechanisms of Competitive Interaction between Action-Based and Coincidence Learning.” Science Advances, vol. 10, no. 49, Dec. 2024, p. eadq3016. science.org (Atypon), https://doi.org/10.1126/sciadv.adq3016
青少年大脑结构差异可能预示着早期药物使用风险
研究发现,大脑结构的神经解剖学差异可能在青少年早期预示药物使用风险。来自圣路易斯华盛顿大学和印第安纳大学的研究团队,基于美国青少年大脑认知发展研究(ABCD Study)的MRI数据,探讨了大脑结构与早期物质使用的关联。他们发现,这些结构差异多数在物质使用前已存在,为研究物质使用障碍的预防和干预提供了新视角。
研究通过分析近10,000名9至11岁儿童的基线磁共振成像(MRI)数据,记录酒精、尼古丁、大麻等物质使用情况。研究表明,早期物质使用者(15岁前)的大脑表现出多种显著差异:全脑体积更大,皮质下体积增加;前额叶皮质变薄,可能影响冲动控制和决策;苍白球(globus pallidus)和海马体积增加,与学习和记忆相关;右尾状核(caudate nucleus)体积在大麻使用者中减小。
多数差异在基线MRI中即已显现,表明这些特征可能是早期物质使用的风险标志,而非仅由物质使用导致。这项研究揭示了神经解剖学变异在早期物质使用中的潜在作用,为未来研究提供了关键方向。研究发表在 JAMA Network Open 上。
#神经科学 #青少年药物使用 #大脑结构差异 #MRI研究
阅读论文:
Miller, Alex P., et al. “Neuroanatomical Variability and Substance Use Initiation in Late Childhood and Early Adolescence.” JAMA Network Open, vol. 7, no. 12, Dec. 2024, p. e2452027. Silverchair, https://doi.org/10.1001/jamanetworkopen.2024.52027
CRAFT-MD评估显示:人工智能医生需“再进修”
大型语言模型(LLMs)在医疗诊断中的潜力备受关注,但其在真实医疗场景中的适用性尚未充分验证。哈佛医学院和斯坦福大学的研究人员提出并应用了一个名为 CRAFT-MD 的评估框架,测试了包括 GPT-4 和 GPT-3.5 在内的四种语言模型的实际表现。研究发现,这些模型在自然对话中的诊断能力有限,为未来优化模型提供了重要启示。
CRAFT-MD(医学测试会话推理评估框架)旨在模拟医生与患者的真实互动,通过对2000个涵盖12个医学专业的案例进行测试,评估模型的表现。研究方法包括:模拟自然对话:使用 AI 代理模拟患者,与模型展开开放式对话,考察模型在收集症状、家族史等信息后进行诊断的能力。综合评估:通过 AI 和人类专家双重评分,衡量模型的诊断准确性和信息整合能力。
研究结果显示,大型语言模型在标准化测试中表现优异,但在更接近现实的自然对话中,其诊断准确性显著下降,尤其在提出关键问题、整合零散信息和处理多模态数据(如心电图、影像)时表现不佳。例如,模型常因遗漏关键信息或无法准确提问而导致诊断错误。GPT-4 在开放对话中的准确率低于其在选择题场景中的表现。
这项研究指出,为提高模型在医疗实践中的应用效果,应开发更现实的评估工具,如 CRAFT-MD,并结合开放式问题、自然对话以及多模态数据的训练与评估。研究发表在 Nature Medicine 上。
#认知科学 #医学人工智能 #自然对话 #CRAFT-MD
阅读论文:
Johri, Shreya, et al. “An Evaluation Framework for Clinical Use of Large Language Models in Patient Interaction Tasks.” Nature Medicine, Jan. 2025, pp. 1–10. www.nature.com, https://doi.org/10.1038/s41591-024-03328-5
科学家发现“死亡计时器”,核仁大小决定细胞寿命
威尔康奈尔医学院的研究团队发表了一项研究,揭示了细胞核仁大小与衰老之间的关系。研究发现较小的核仁可以减缓衰老并延长寿命,而较大的核仁则通过破坏核糖体DNA(rDNA)的稳定性导致细胞死亡。研究团队通过在酵母细胞中人工控制核仁大小,发现保持核仁紧凑可以延缓衰老,效果与限制卡路里相似。此外,研究还发现核仁在细胞生命末期会突然快速膨胀,这一现象被定义为“死亡计时器”。
这项研究的关键方法是通过工程系统减少核仁大小,以观察其对酵母复制寿命的影响。研究结果表明,核仁大小的减少可以显著延长酵母的寿命,这一效果与蛋白质合成速率或rDNA沉默无关。当核仁膨胀超过一定大小时,其生物物理性质发生变化,允许通常被排除在核仁外的蛋白质进入,如同源重组修复蛋白Rad52。这导致异常的rDNA重组,引发灾难性的基因组不稳定性和细胞死亡。研究结论是,核仁膨胀是驱动衰老的充分条件,并且核仁膨胀超过特定大小阈值是一个死亡计时器,因为伴随的核仁凝聚物边界破坏会导致基因组不稳定性,从而结束复制寿命。研究发表在 Nature Aging 上。
#大脑健康 #核仁 #衰老 #rDNA #基因组不稳定性
阅读论文:
Gutierrez, J. Ignacio, and Jessica K. Tyler. “A Mortality Timer Based on Nucleolar Size Triggers Nucleolar Integrity Loss and Catastrophic Genomic Instability.” Nature Aging, vol. 4, no. 12, Dec. 2024, pp. 1782–93. www.nature.com, https://doi.org/10.1038/s43587-024-00754-5
AI 行业动态
Google全新Gemini AI代理亮相,重塑未来智能助手
Google近日正式发布了其最新的Gemini AI代理(Agents),宣告人工智能从仅仅回答问题向主动执行任务的全新阶段迈进。此次发布的Gemini 2.0具备更快、更智能的性能,支持文本、图像和音频处理。这一创新被广泛认为将改变个人和企业对AI的使用方式。
Gemini 2.0引入了三个核心AI代理,分别是Project Astra、Project Mariner和Jules,它们各自专注于不同领域的任务。
Project Astra:该代理是一个日常任务助手,支持多语言交流,增强记忆对话能力,并整合Google搜索、Google Lens(谷歌镜头,图像识别工具)和Google Maps(谷歌地图)。它还能通过语音快速响应,提升用户体验。
Project Mariner:主要用于浏览器交互,具备阅读网页文本和图像、填写表单的能力。在执行重要操作前,它会提示用户确认,目前的测试结果显示出广泛潜力。
Jules:专为开发者设计的AI代理,可连接GitHub,协助代码规划与编写,并根据开发者指导逐步完成任务。这展示了未来智能编程工作流的可能性。
此外,Google DeepMind正在探索Gemini 2.0在游戏和机器人领域的应用。例如,它能为游戏玩家提供建议,并为物理机器人提供创新控制方式。AI从虚拟世界的任务管理到现实中的复杂场景均展现了强大的适应能力。
#人工智能 #GoogleGemini #自动化任务 #深度学习 #人机交互
阅读更多:
https://blog.google/technology/google-deepmind/google-gemini-ai-update-december-2024/
微软研究引发参数猜测热潮:GPT-4o-mini仅8B?
近日,由微软与华盛顿大学合作完成的论文《MEDEC: A Benchmark for Medical Error Detection and Correction in Clinical Notes》披露了多个大语言模型(LLMs)的参数量估计值。
论文的核心是介绍一个名为MEDEC的公开基准数据集,用于检测和纠正临床记录中的医疗错误。研究中测试了包括GPT-4o-mini、Claude 3.5 Sonnet、o1-preview等在内的模型,公布了各模型的参数量估计。例如,GPT-4的参数量为1.76T,o1-preview为300B;Claude 3.5 Sonnet为175B,GPT-4o为200B,而GPT-4o-mini则是只有8B的轻量级模型。
论文的这一披露迅速在社交媒体上引发激烈讨论。一些网友质疑微软估算的准确性,并表示「这些数字可能只是推测」,因为论文明确提到参数量是估计值。有人认为Claude 3.5 Sonnet的175B估计值不太可能,甚至有网友大胆推测GPT-4o-mini是一个专家模型(MoE, Mixture of Experts),其激活参数量可能远超表面数据。
#GPT模型 #人工智能 #微软研究 #大模型参数 #MEDEC基准
阅读更多:
https://arxiv.org/pdf/2412.19260
AI 研发动态
用机器学习设计未来材料:预测不再受数据限制
材料科学中数据稀缺问题限制了新材料的发现与设计。为解决这一问题,印度科学研究所与伦敦大学学院的研究团队利用迁移学习(transfer learning)方法,开发了一种基于图神经网络的模型。他们提出了一种多属性预训练(Multi-property Pre-Training, MPT)框架,成功实现了对有限数据的高效预测。
研究团队在七个不同的材料特性数据集(数据大小从941到132,752)上进行了系统的实验。首先,他们通过图神经网络(对模型进行预训练,随后在目标数据集上进行微调。在这种框架中,图神经网络通过将材料的三维晶体结构建模为节点(原子)和边(原子间的键)来提取特征。
实验表明,迁移学习策略显著提升了预测性能,尤其是多属性预训练(MPT)模型在二维材料电子带隙预测任务中表现优越,即便该特性并未出现在训练数据中。此外,研究发现这种模型能够应用于电池材料中离子迁移速率的预测以及半导体中点缺陷形成趋势的评估,从而推动能源存储设备和半导体制造的进步。研究发表在 npj Computational Materials 上。
#神经技术 #材料科学 #迁移学习 #图神经网络 #多属性预训练
阅读更多:
Devi, Reshma, et al. “Optimal Pre-Train/Fine-Tune Strategies for Accurate Material Property Predictions.” Npj Computational Materials, vol. 10, no. 1, Dec. 2024, pp. 1–11. www.nature.com, https://doi.org/10.1038/s41524-024-01486-1
AI如何预测并操控你的下一步选择?
剑桥大学莱弗休姆智能未来中心(LCFI)的研究团队研究了人工智能如何利用生成式人工智能(Generative AI)和大型语言模型(LLMs)推测用户意图,并将这些意图商品化的问题。他们分析了科技巨头在公开声明和技术趋势中展现的商业野心,提出“意图经济”可能成为继“注意力经济”后的下一个重要市场。研究通过技术分析和数据追踪揭示了这一趋势的早期迹象,警告其潜在风险。
研究方法包括对科技公司技术发布和应用场景的案例分析,结合未发表的论文和公开技术报告,揭示人工智能推测和商品化用户意图的模式。他们发现,大型语言模型通过超个性化操控(hyper-personalized manipulation)和行为数据分析,将用户的语速、政治倾向、用词习惯等数据整合,用于预测和引导决策。例如,AI可以通过对话识别用户情绪变化,并在适当时刻建议购买商品或参与活动。
研究进一步表明,“意图经济”利用人工智能生成的数据推动商业利益,从购买电影票到参与选举,AI的干预可能重塑社会规则。虽然技术有其正面潜力,但若缺乏监管,这种新市场可能对公平选举、自由媒体和市场竞争构成威胁。研究发表在 Harvard Data Science Review 上。
#认知科学 #意图经济 #生成式人工智能 #大型语言模型
阅读更多:
Chaudhary, Yaqub, and Jonnie Penn. “Beware the Intention Economy: Collection and Commodification of Intent via Large Language Models.” Harvard Data Science Review, no. Special Issue 5, Dec. 2024. hdsr.mitpress.mit.edu, https://doi.org/10.1162/99608f92.21e6bbaa
情境学习:无需重训模型的机器学习新方法
机器学习传统的监督学习和无监督学习方法在应对多样任务时常显得局限。为解决这一问题,麻省理工学院计算机科学与人工智能实验室(CSAIL)和慕尼黑工业大学的研究团队提出一种名为情境自我监督学习(ContextSSL)的新方法,通过引入上下文的动态适配机制,成功解决了传统方法中对固定归纳先验的依赖,显著提高了在多个基准测试和实际应用中的表现。
ContextSSL以动态适配为核心,通过Transformer模块将上下文信息编码为状态-动作-下一状态三元组的形式,捕捉任务特定的动态环境。该方法的关键在于通过关注上下文,有选择地对数据变换施加等变性(Equivariance)或不变性(Invariance),从而生成更加通用且灵活的表示。
在计算机视觉领域,ContextSSL在3DIEBench和CIFAR-10等数据集上展示了强大的适应能力,其学习的表示能同时满足等变性和不变性的需求。在医疗领域,研究团队通过MIMIC-III数据集验证了ContextSSL在性别敏感性和公平性任务中的性能提升,具体表现在性别预测精度和住院时间(LOS)预测的公平性改进。实验结果表明,ContextSSL在多个复杂场景中都优于现有方法,提供了一种无需重复训练的通用解决方案。
#神经技术 #机器学习 #自我监督学习 #情境学习
阅读更多:
Gupta, Sharut, et al. In-Context Symmetries: Self-Supervised Learning through Contextual World Models. arXiv:2405.18193, arXiv, 28 May 2024. arXiv.org, https://doi.org/10.48550/arXiv.2405.18193
人工智能如何破解古代文本并改写历史
近日,人工智能(AI)在破解古文领域的革命性突破引发关注。从烧焦的赫库兰尼姆卷轴到中国的甲骨文,AI正通过其强大的神经网络技术解锁古老文本的秘密,为人类带来前所未有的历史洞察。
在意大利那不勒斯大学的研究中,纸莎草学家Federica Nicolardi利用AI成功读取了公元79年维苏威火山喷发中被烧毁的希腊文卷轴内容,这些文字整齐排列,跨越近五个栏目,为古典哲学研究提供了宝贵的新数据。同样,“维苏威挑战”项目的参与者开发出一种基于TimeSformer模型的算法,成功解码了赫库兰尼姆卷轴上的16列文字,这一技术甚至可能重现更多未解封的古籍内容。
AI还在世界各地的古籍研究中发挥重要作用。例如,韩国的团队利用变压器模型翻译并分析朝鲜王朝的汉字记录,这些文字涵盖数百年的历史数据;而在英国牛津大学的项目中,Ithaca模型不仅能填补希腊铭文中的空白,还能准确定位其地理起源与年代。AI工具还揭示了巴比伦晚期石板上的失落诗句,为古代文学带来新发现。
这些技术不仅提高了文本解析的效率,还改变了研究思维。研究者可以跨越海量数据集,提出关于古代社会的新问题,例如分析统治风格的变化或文化间的交流模式。随着AI生成和理解能力的提升,未来我们或许能够直接“询问”古代人类的思想。
无论是考古还是语言学,AI赋予了研究者以前无法想象的能力,但其背后也伴随数据开放性和学术公正性的新挑战。正如牛津大学博德利图书馆馆长Richard Ovenden所言:“人工智能让学者们的工作比以往更加重要。”通过技术与人文的结合,AI正开启探索人类历史的新篇章。
#人工智能 #古籍研究 #数字化文献
阅读更多:
Marchant, Jo. “How AI Is Unlocking Ancient Texts — and Could Rewrite History.” Nature, vol. 637, no. 8044, Dec. 2024, pp. 14–17. www.nature.com, https://doi.org/10.1038/d41586-024-04161-z
人工智能如何应对医疗文档中的“致命错误”
医疗文档生成中的潜在错误可能威胁临床决策,美国微软健康与生命科学AI团队和华盛顿大学生物医学与健康信息学团队的研究人员开发了MEDEC数据集。这项工作首次提供了一个公开的基准,用于评估LLMs在检测和纠正医疗错误方面的能力,揭示了现有模型与医学专家之间的性能差距。
研究基于MEDEC数据集展开,该数据集包含3,848份临床文本,包括488份来自美国三家医院系统的临床记录,专注于五种医疗错误类型(诊断、管理、治疗、药物治疗、致病因子)。研究测试了Claude 3.5 Sonnet、o1-preview、GPT-4和Gemini 2.0 Flash等最新LLMs在检测与纠正医疗错误方面的能力,同时与两名医学医生的表现进行了对比。
实验结果显示,尽管LLMs能够检测并纠正大部分医疗错误,但在复杂任务中仍被医学医生超越。研究发现,当前模型在医疗知识和推理能力上的局限性是导致差距的关键因素。此外,研究还指出了当前评估指标的不足之处,并建议未来需开发更加全面的评估方法。
#神经技术 #医疗错误 #人工智能 #数据集
阅读更多:
从单词到概念:语言模型的革命性进化
当前的大型语言模型在语言理解和生成方面取得了显著进展,但缺乏多层次抽象推理能力。Meta的研究团队,包括Loïc Barrault、Paul-Ambroise Duquenne和Maha Elbayad等人,提出了一种名为大型概念模型(Large Concept Model, LCM)的新架构。该模型基于SONAR嵌入技术,在语言和模态无关的抽象概念空间中进行推理,显著提升了多语言和多模态任务的泛化能力。
LCM通过句子表示空间中的抽象概念进行推理,采用了SONAR(句子嵌入技术,支持200种语言和多模态)作为核心工具。研究团队定义了概念为句子的抽象表示,并通过自回归句子预测方法进行了训练。实验使用了两种规模的模型,分别为1.6B参数(约1.3T训练数据)和7B参数(约2.7T训练数据)。模型在摘要生成和摘要扩展任务中展现了卓越性能,尤其是在多语言零样本任务中的表现超越了现有同等规模的LLMs。
LCM架构具有显式的分层结构,支持长文本上下文的处理。其模块化设计使其能够高效扩展至新语言或模态,避免了传统多模态LLMs因模态竞争带来的性能问题。实验结果显示,LCM在生成质量和多模态支持方面均优于现有技术,为语言建模开辟了新路径。
#认知科学 #神经技术 #多语言模型 #SONAR嵌入 #跨模态推理
阅读更多:
整理|ChatGPT
编辑|丹雀、存源
关于追问nextquestion
关于天桥脑科学研究院
天桥脑科学研究院(Tianqiao and Chrissy Chen Institute)是由陈天桥、雒芊芊夫妇出资10亿美元创建的世界最大私人脑科学研究机构之一,围绕全球化、跨学科和青年科学家三大重点,支持脑科学研究,造福人类。
Chen Institute与华山医院、上海市精神卫生中心设立了应用神经技术前沿实验室、人工智能与精神健康前沿实验室;与加州理工学院合作成立了加州理工天桥神经科学研究院。