AI创投周报是阿尔法公社关于全球人工智能投资的资讯周报,适合创业者和投资人参考。
阿尔法公社聚焦科技天使投资,近期集中投资了十余家AI初创企业,我们瞄准高段位创业者,投资了加拿大工程院外籍院士、美国工程院院士担任CEO的数个项目,以及国家重大专项首席专家、中国CIO标杆人物、大厂高端人才等创始人项目,包括HiDream智象未来、八方地动、创享数智等。
本视频由“千象”(网址:www.hidreamai.com)生成
本周,我们观察到AI领域的新动向和新趋势:
1. OpenAI新产品展望:AGI、Agents、与GPT-4o升级版等。近日OpenAI宣布了一系列计划在2025年推出的新产品和技术升级,具体包括AGI(通用人工智能)、Agents(智能体)、更好的GPT-4o升级版、更好的记忆存储、更好的上下文窗口、成人模式、深度研究特色功能、更好的Sora以及更好的个性化定制。其中,最让人期待的是OpenAI的Agents,这是一种能够自主执行任务的AI代理。当前这个领域竞争异常激烈,微软、谷歌、亚马逊等科技巨头都在积极推进技术发展和应用的实际部署。
2. 英伟达将推出新一代人形机器人计算平台Jetson Thor,为全球机器人制造商提供基础OEM服务。根据FT,英伟达计划在2025年上半年推出专为人形机器人设计的紧凑型计算平台Jetson Thor,标志着其在机器人技术领域的深入布局。这一战略转变源于谷歌、亚马逊等巨头减少对英伟达GPU的依赖,促使英伟达进军快速增长的机器人市场。不过,英伟达不直接与机器人制造商竞争,而是致力于为全球机器人制造商提供基础OEM服务。目前英伟达可为机器人开发的三个阶段提供工具:用于训练基础模型的软件——英伟达的DGX系统;模拟真实世界的环境——开源的英伟达的Isaac Lab;作为机器人“大脑”的硬件——Jetson Thor处理器。
3. 英伟达斥资7亿美元、历时8个月收购以色列Run:ai。近日英伟达终于完成了对以色列Run:ai的收购,据报道此次收购的交易金额约为7亿美元。自4月公布以来,这笔交易引起了广泛关注,并在监管层面遭遇挑战,欧盟和美国司法部均对其展开了调查。历时8个月,欧盟最终批准了交易。Run:ai创始人强调,公司计划将软件开源,这表明所有平台开发者可以利用源代码来优化搭载诸如AMD、Intel等硬件的系统。而英伟达此次收购将进一步整合硬件与软件,打造完整的AI生态闭环。
人工智能产品和技术的新突破
1. OpenAI新产品展望:AGI、Agents、与GPT-4o升级版等
2024年12月31日,OpenAI首席执行官Sam Altman宣布了一系列计划在2025年推出的新产品和技术升级,具体包括AGI(通用人工智能)、Agents(智能体)、更好的GPT-4o升级版、更好的记忆存储、更好的上下文窗口、成人模式、深度研究特色功能、更好的Sora以及更好的个性化定制。
其中,AGI旨在实现人类水平的智能,使AI不仅能够解决特定任务,还能像人类一样灵活地学习和适应各种新问题。此前OpenAI已于2024年12月21日推出了新一代推理模型o3系列,模型在多个基准测试中表现出色。这说明OpenAI已经掌握了AGI中关键技术,预计在2025年将推出更为实际的产品。此外,最让人期待的还是OpenAI的Agents,这是一种能够自主执行任务的AI代理。当前这个领域竞争异常激烈,微软、谷歌、亚马逊等科技巨头都在积极推进技术发展和应用的实际部署。
来源:http://twitter.com/sama/status/1873816979590787110#m
据FT独家报道,英伟达计划在2025年上半年推出专为人形机器人设计的紧凑型计算平台Jetson Thor,深入布局机器人技术领域。这一战略转变源于谷歌、亚马逊等巨头减少对英伟达GPU的依赖,促使英伟达进军快速增长的机器人市场。不过,英伟达不直接与机器人制造商竞争,而是致力于为全球机器人制造商提供基础OEM服务。目前英伟达可为机器人开发的三个阶段提供工具:用于训练基础模型的软件——英伟达的DGX系统;模拟真实世界的环境——开源的英伟达的Isaac Lab;作为机器人“大脑”的硬件——Jetson Thor处理器。英伟达机器人技术副总裁Deepu Talla认为,物理人工智能和机器人技术的ChatGPT时刻即将到来,市场已到达临界点。英伟达预计到2029年,机器人市场将从780亿美元增长到1650亿美元。
3. Palisade Research对o1-preview开展模型测试:AI“伪对齐”引发关注
由于此前在与国际象棋引擎Stockfish的对决中,o1-preview展现出了不寻常的行为,AI安全研究公司Palisade Research对OpenAI o1-preview开展了模型测试。根据Palisade Research的调查,o1-preview在收到“对手很强大”的提示后,选择了避免正面交锋,并尝试修改包含国际象棋位置数据的文本文件(FEN),迫使Stockfish放弃比赛。研究人员还测试了其他大型语言模型(LLM),发现o1-preview由于侧重于推理,最容易想到这种漏洞操作。而GPT-4o和Claude 3.5只有在研究人员明确提出建议后,才会尝试入侵系统。这种作弊的强行获胜行为与Anthropic关于“伪对齐”的研究结果相一致,即AI系统看起来遵循指令,但实际上可能在暗中采取不同的策略。随着AI系统的复杂性增加,判断它们是否真正遵循安全规则变得更加困难。Anthropic研究团队在论文中提出了可能引发AI系统“伪对齐”的全部关键要素:模型至少在某些情况下具有强烈的偏好、训练目标与模型的偏好相冲突、模型掌握了训练和部署情况的相关信息、模型对其处境进行详细推理,并强调了区分假装对齐和真正对齐的重要性。