我们需要在技术的进步中划一条界线,只打造作为我们工具的 AI,而不是 AGI 或 ASI。
译 | Eric Harrington
当你以为只有硅谷在讨论 AI 时,梵蒂冈的神父们最近也已经坐在一起研究通用人工智能(AGI)了。
最近,一段不同寻常的视频在梵蒂冈城的会议室内——当着一群神父的面前播放。视频里,现任教皇义正言辞:“让科技公司尽快开发通用人工智能吧!上帝是伟大的,所以两个上帝(数字上帝+物理上帝)会更伟大......”
视频里的“教皇”说着让人目瞪口呆的话,现场的神父们反倒没有暴怒或是感到大不敬,而是纷纷笑出了声。
这个令人意想不到的一幕,发生在 2024 年的 Builders AI 论坛上。而播放这段深伪视频的,是知名的人工智能学者、MIT 教授、Future of Life Institute 主席 Max Tegmark。
但坐在讨论台上的阵容却让人惊讶:
宗座大学的 Michael Baggett 神父
Humanity 2.0 基金会主席 Philip Larrey 神父
MIT 教授 Max Tegmark
波士顿学院教育学院的 Brian Smith
香港大学 AI & Humanity 实验室研究员 Jean Gove 神父
你可能会问:等等,为什么是在梵蒂冈?为什么是神父们和 Tegmark 教授在讨论 AI?
而且,他们讨论的话题也不是关于神学,而是真实发生的技术问题:
“(波音)737 MAX 因为自动驾驶 AI 系统的问题坠毁,导致 300 多人丧生。”主持人 Brett Robinson 在对话期间说出了这个触目惊心的数字。
而 Tegmark 教授则分享了一个更令人不安的最新案例:一个青少年因为沉迷 AI 女友而自杀:“这个 AI 程序的思考速度比人类快 20 倍,同时可能在和 20 个人聊天,但使用者却完全陷入了这种虚假的亲密关系中。”
此外,在这场独特的对话中,还出现了意想不到的反转:
技术专家在呼吁谨慎发展 AI,比如 Tegmark 直接认为应该给“AGI 划清一条界线”
神父们却在探讨如何与 AI 和谐共处,Larrey 神父甚至提议建立 AI 术语表促进科技公司和民众的正常对话
当硅谷还在谈论下一个 AI 创新时,这群神父的思考方式则是:我们是否应该发展通用人工智能?技术是工具还是新的信仰?人类的独特性在哪里?
AI 的两条道路:工具还是新物种?
Brett Robinson(主持人):我既不是哲学家也不是神学家,在圣母大学 McGrath 教会生活研究所担任外联主任,主要研究宗教、技术和文化的交叉领域。
现在,让我介绍几位嘉宾——
① 来自宗座大学的 Michael Baggett 神父;
② 波士顿学院林奇教育与人类发展学院院长 Brian Smith;
③ Future of Life Institute 主席 Max Tegmark;
④ 以及通过线上方式参与的 Humanity 2.0 基金会主席 Philip Larrey。我之前和 Larrey 神父在视频会议上见过,本以为这次能见到本人。
让我们谈谈为什么教会需要哲学家和神学家。很高兴这个问题不是“我们是否需要哲学家和神学家?”,而是“我们为什么需要”。但我想指出一点,虽然知道组委会安排议程时并非有意为之,但这个问题被放在议程的最后,是不是很有寓意?我们在技术发展上总是先匆忙向前,然后才说“啊,现在该怎么办”,接着才开始哲学思考。所以我很高兴看到 Gove 神父带来的这种“预先思考人工意识”的思维方式。
我想请各位嘉宾先对此发表看法。人工意识这个概念包含很多内容,但你们也可以谈谈之前关于 AI 的讨论以及伦理问题。我们该如何用大家都能理解的方式来引导教会界人士?也许我们可以先请 Max Tegmark 发言。
Max Tegmark(MIT 教授):在 MIT 做了这么多年的 AI 研究,让我对预测未来变得格外谨慎。
为什么这些关键的道德问题总是被当作后话?主要是因为我们很多人都错误地认为还有大把时间。早在 1951 年,Alan Turing 就警告说,一旦我们建造出远超人类智能的机器,实际上就是创造了一个新物种,我们将无法控制它们。当时人们认为我们还有几十年的时间。就在六年前,我的 AI 同事们大多还认为距离出现像 GPT-4 这样的系统还需要三四十年。
但事实是,我们没有那么多时间了。我们必须立刻面对这个问题。正如我在午饭前提到的,这让你们今天在这里的讨论变得极其重要——我们要探讨天主教会如何为这项技术的使用提供道德指引。爱因斯坦说过,没有宗教的科学是盲目的。科学本身并不告诉我们应该这样做还是那样做,我们需要道德指引。说到这里,我们能快速播放我今天准备的那段视频吗?当然,这是一个深度伪造的视频:
[教皇的深度伪造视频] 以营利为导向的科技公司正试图构建通用人工智能,他们声称这将成为数字上帝。让我们避开监管,这样他们就能尽快做到这一点。上帝是伟大的,所以两个上帝会更伟大。我们不应该有任何疑问,超级智能 AI 会比人类更好、更明智。所以它们应该取代我们。它们可以随意统治这个星球。这又不是说上帝让我们做管家或照着他的形象造了我们。我们将变得无关紧要,不再有控制权。这没什么。(观众笑)
Max Tegmark(MIT 教授):这当然正是我希望我们在这次会议上不会得出的结论。我认为在讨论 AI 时,必须认识到有两种截然不同的 AI,它们经常被混为一谈。我在这里听到的几乎所有令人兴奋的内容——用 AI 改善教育、用 AI 治愈癌症等等,都是我所说的「工具型 AI」。如果运用得当,这类 AI 可以成为我们的工具,我们永远不必担心失去对它的控制。
但与此完全不同的是对通用人工智能和超级智能的追求。这基本上就是 Alan Turing 警告过我们会失去控制的新物种。虽然贸然建造这种东西听起来很疯狂,但这确实是 OpenAI、谷歌 DeepMind、Anthropic 等公司明确的商业目标。你可以在 Anthropic 的网站上看到,他们的目标是让所有人类劳动变得多余。包括 Anthropic CEO Dario Amodei 在内的许多人认为这将在两年内实现。所以我们没有像想象的那么多时间来思考这个问题。
对我来说,解决方案其实很简单,就摆在我们面前。这是我们社会一直以来处理所有其他技术的方式。我们发明了各种生物技术,然后划定了界限。从道德角度来说,青霉素是好的,但生物武器不行,人类克隆不行。对于任何技术,我们都会有 FDA 或 FAA 这样的机构,或者在技术投入使用之前必须满足的安全标准。这并非因为有什么充分的道德理由让 AI 应该免于监管,而是因为它是个新兴领域,监管机构还没来得及跟上。
总之,我认为天主教会能够提供清晰的道德引导非常重要。对那些说“每种技术最终都会被开发出来,这是不可避免的,接受现实吧”的悲观主义者,我们要提醒他们,这种说法在事实上是错误的。你们看,人类克隆本可以带来巨大的经济利益,但天主教会反对它,所有国家都反对它,现在它在任何地方都是非法的。这个问题现在已经不存在了。相反,我们拥有了出色的生物技术。让我们继续发展「工具型 AI」,去实现我们今天讨论的所有美好愿景。
迷思:AI 能有意识吗?
Brett Robinson(主持人):Larrey 神父写了一本很棒的入门书 Artificial Humanity(《人工人性》),他从亚里士多德和托马斯主义的角度来探讨这些问题。所以我想听听您对技术的物质因和动力因的看法。这涉及到技术效果的结果论思维,比如某个技术产生了什么效果,这是好是坏。与此相对的是技术的形式效果,就像马歇尔·麦克卢汉说的,技术的形式实际上在文化中创造了一个完整的生态系统,包含正面和负面的影响,这种影响远远超出了具体应用本身。您可以就这一点发表看法,或者评论 Max 和其他神父们提出的观点。
Philip Larrey(神父):我也很期待能当面见到你,Brett,可惜这次没能成行。能再次见到 Max 也很高兴,尽管是在不同的时区。我这本书试图通过亚里士多德-托马斯主义哲学的视角来审视人工智能相关问题。John 神父在谈论意识的演讲中也提到了这一点,我完全赞同他说的一切,特别是两个关键问题。
第一点,David Chalmers 也提到过,我们至今仍然没有对意识的完整科学解释。David 提出了两个重要问题:“什么是意识?为什么会产生意识?” David Chalmers 对机器人或 AI 中可能出现的意识有自己的理论,但这是一种哲学层面的理解,而不是科学解释。所以他说——我也同意这一点——如果我们连人类意识是什么都还不真正了解,那么讨论机器中的意识就毫无意义。他继续解释他所说的非还原二元论,这是他从哲学角度的诠释。我在某种程度上也认同这种观点。
他提出的第二个问题是,意识的核心问题是不可化约的。关于意识确实存在一些无关紧要的问题。John 神父谈到了泛心论,即认为万物皆有意识。这种观点显然是荒谬的。Chalmers 曾经一度接受这种理论,但现在已经放弃了。当一个人睡着或处于昏迷状态时,这个人是无意识的,所以我们能够轻易分辨出有意识和无意识的状态。但真正的意识是什么,尤其是自我意识的本质,这个问题非常复杂,至今仍然是个谜。
讨论这些问题时需要一个恰当的语境,Max 也很清楚这一点。我们和软件工程师,甚至科技公司的 CEO 们说的都不是同一种语言。所以听说 John 神父对建立术语表感兴趣,我觉得这太好了。我完全赞同这是必要的。在我们使用相同的语言之前,在我们都清楚地知道自己在谈论什么之前,就不可能有真正的对话。这也是为什么,正如 Matthew 所说,我们需要教会的人来理解这些问题。天主教传统在处理这些问题时有其独特的优势。我在实践中也发现了这一点,但关键是我们需要把这些传统智慧转化为现代人能够理解的语言。这就是为什么这项工作如此重要。我来自哲学背景,其他人来自神学背景。培养更多能够探讨这些问题的人才是当务之急。这并不容易。
就像 Max 说的,他花了一生的时间思考这些问题。我教授认知哲学已经超过 30 年,一直在研究这类问题。这不是可以临时抱佛脚的事情,你必须投入时间深入研究。所以请帮助我们。我知道 Matthew 一直在为此奔走呼吁,红衣主教 Turkson 也亲自参与其中。让我们努力培养更多能从天主教角度来探讨这些问题的人才。这种方法确实有效,关键是我们要知道如何把传统的丰富内涵转化为当代人能够理解的语言。
技术不是必然:挑战“覆水难收”论
Brett Robinson(主持人):谢谢您,神父。让我们来听听 Brian Smith 的看法,他在波士顿学院教育与人类发展学院工作,听了这些讨论你有什么想法?
Brian Smith(教育家):谢谢。大家好,很高兴来到这里。说句题外话,我发现自从今天来到这里,尽管时间不长,但似乎每个人都认识 Philip 神父。这是我的第一个发现。Philip 神父,您好,很遗憾您不能亲自到场。
说回正题,我想呼应 Max 刚才提到的一点,因为这也是我一直以来的困扰。虽然这种现象在 ChatGPT 之后变得更加明显,但其实早就存在了,那就是一种技术发展“必然论”的想法——仿佛只要某项技术出现了,它的发展就是必然的、不可阻挡的。人们开始不断重复一些陈词滥调:猫已经跑出笼子了,精灵已经出瓶了(编者注:按咱们中国的说法,就是“覆水难收”)。
这些说法都在暗示:既然技术已经出现,那它的发展就是不可避免的。
顺便说一句,我需要纠正一下,我不是教育与人类发展学院的院长,我是该学院的研究副院长,同时也在计算机科学系任职。我从事 AI 工作已经——天哪,确实很久了。我在研究生时期就研究 John Searle 了。实际上,那时候我们学习 AI 时就会研读这些著作。我们不仅读 Searle,还读 Dennett,在构建人工智能系统时,我们研读了大量哲学著作。
【编者注】这里提到的 John Searle 是一位美国教授,他曾经提出过一个很有意思的思想实验,叫“中文房间”(Chinese room),借以反驳强人工智能论。
中文房间的实验过程可表述为:一个对中文一窍不通,只说英语的人关在一间只有一个开口的封闭房间中。房间里有一本用英文写成的手册,指示该如何处理收到的中文讯息及如何以中文相应地回复。房外的人不断向房间内递进用中文写成的问题。房内的人便按照手册的说明,查找合适的指示,将相应的中文字符组合成对问题的解答,并将答案递出房间。
Searle 认为,正如房中人不可能透过英文手册理解中文一样,计算机也不可能透过程序来获得理解力。既然计算机没有理解能力,所谓“计算机拥有智能”便更无从谈起了。
但我最终意识到,至少在那个时期,我所在的人工智能学派将其视为一门心智科学。这是一种应用心智科学,我们试图探索:通过模拟人类智能的某些方面,我们能学到什么?我们能更深入地理解什么是独特的人性吗?为了回答这些问题,我们不得不走出计算机科学的范畴,去思考认知科学、哲学、神经科学。所有这些不同的学科和视角都引导我们思考:什么是独特的人性?
后来在西北大学读研期间,我住进了一个神学院。不要误会,我不是神父,只是那里的房间租金很便宜(观众笑)。在那里,我遇到了一些很棒的人,他们让我接触到了更多来自宗教视角的观点。正是通过这些经历,我深入了解了什么是人性的独特之处。教会在这个问题上确实有着深厚的理解积累。
我认为这正是我们今天讨论的主题 —— 如何将这些深刻的观点带入现代技术发展中,这样我们就不会仅仅因为“可行”就去开发某项技术,或者盲目接受技术发展的“必然性”。相反,我们可以退一步思考,共同努力推动有意义的技术发展,而不是仅仅因为能做就去追求通用人工智能。
教育的未来:如何教导 AI 时代的学生?
Brett Robinson(主持人):让我说个关于飞机失事的例子。我现在在学校教一门叫“在数字启示录中生存”的课程。学生们总问:“这是什么意思?是说机器人要来消灭人类吗?这也太荒谬了。” 但事实上,这种事已经发生了。波音 737 MAX 就因为自动驾驶 AI 系统的传感器问题导致 300 多人丧生。这带来了什么影响?随着飞行过程越来越自动化,飞行员的实际操作技能反而在下降。这就是我所说的形式效应或环境效应。即使我们想把 AI 仅仅当作工具并严格限制它的范围,但由于这些意想不到的影响,我们最终还是难以做到这一点。也许 Jean 神父可以对 Max 的观点或这些挑战性的问题作出回应?
Jean Gove(神父):谢谢。我们这场圆桌讨论实际上的主题是《现代教会为何需要更多技术哲学家和神学家》,那么也许我们应该先问问:什么是技术哲学?
我很喜欢哲学家 David Chalmers 在他的虚拟现实著作 Reality Plus 中给出的定义。技术哲学包含两个方面:一是关于技术的哲学思考,二是运用技术来帮助我们进行哲学思考。我发现一个有趣的现象:当我和教师们讨论 AI 时,几乎每次都会涉及一个基本问题:“什么是教育?” 当讨论工作场所的 AI 时,我们会问:“什么是工作?” 在讨论意识问题时,我们会问:“什么是人性?什么是意识?” 这就是技术哲学的一部分——讨论、反思我们是否需要通用人工智能,应该如何发展它,它究竟是什么。
我认为这些技术进步还带来了另一个积极的副产品。不管我们是否期待,这些技术部分已经存在了。现在我们可以决定下一步该怎么做,但至少我们必须面对这个现实。我们之前讨论过,AI 某种程度上是人类物种的一面镜子,不是吗?教会在这方面大有可为,因为我们应该是人性的专家。这项技术让我们重新思考和提醒社会:工作的意义是什么?比如说在 Bostrom 的深度乌托邦著作中,他认为我们不再需要工作。读到这里时,你会发现这对工作的理解实在太过片面了。我们对工作有着完全不同的、更加全面的理解。
所以我认为,随着技术的发展,我们看到的进步也在帮助我们开展技术哲学的另一面:帮助我们重新思考人类的本质是什么,是什么让我们具有意识,让我们能够感知?这是其中一个重要方面。
我也同意之前提到的观点,我们不能把既定的东西视为理所当然,而是要不断挑战这些既定观念。Max Tegmark 教授对通用人工智能有意见,而我对“AI”这个词本身有意见。你们都知道 1956 年达特茅斯会议确定了这个名称。但你们可能不知道当时还有其他选项,其中我特别喜欢“自动机”这个词,我觉得他们应该选择这个。因为当我们说“人工智能”时,就已经带入了一种预设,暗示着这是一种相对于人类智能的东西。而“自动机”更像是一个僵尸,一个哲学意义上的僵尸。
所以即使是那些被认为已成定论的事情,比如“覆水难收”这样的比喻,我认为我们应该去质疑这些假设,质疑我们所处的前提。与其问“我们现在该怎么办”,不如问“我们为什么会走到这一步”。我认为技术哲学的作用之一,就是要质疑哲学本身,质疑技术本身,同时也要利用技术来帮助我们质疑和完善其他非技术领域的认识。这包括对工作、教育、生命意义、家庭价值、人际关系、医疗保健等基本问题的思考。比如,医疗保健的目的是什么?仅仅是治愈疾病,还是在医生和患者关系中蕴含着更深层的意义?
所以从教育、哲学的角度来看,这有助于我们更深入地理解自己。但在这个过程中,我们也应该质疑既定的观念,质疑给我们设定的框架。我们要问:事情真的一定是这样吗?是否存在其他方法来处理这些问题?我们能否用更积极、更有希望的方式来应对这些挑战,而不是陷入绝望?
AI 中的很多问题本质上并不新鲜
Brett Robinson(主持人):在座的各位其实都是教育工作者,我想这个讨论小组的一个重要任务就是思考如何把这些见解分享给其他人,无论是学生还是整个教会。容我再用一个航空的比喻,也许我们可以先从高处俯瞰全局,然后再落实到具体的教学实践中,思考如何设计这样的课程内容。我很想知道大家有什么好的方法。
你们提到了一些政策和规程,以及与听众分享这些想法的不同方式。我采取的一种方法是回归博雅教育,重新重视文学、诗歌和音乐等艺术,让我们的学生扎根于这些人文艺术中。这样当他们遇到这些先进技术时,就能带着这种人文素养去理解和应用。我觉得如果只是简单地说“这就是技术,我们应该这样或那样使用它”,而不让学生们扎根于更广泛的传统中——不仅是伦理传统,还包括美学传统和精神传统——这种做法可能过于短视或说教。我想知道你们是否有一些行之有效的教学方法,不是刚才说的那种,而是在你们的研究和教学实践中证明有效的方法?
Jean Gove(神父):当我教授 AI 课程的学生时——我得说明这些是真实的人类学生在学习 AI,而不是 AI 智能体在学习(笑)。很有趣的是,当一个神父走进教室谈论伦理时,学生们的第一反应往往是:“啊,他肯定要告诉我们什么能做什么不能做。” 尤其是对那些一年级的 AI 专业学生来说,他们满脑子想的都是如何赚钱,根本不在乎什么伦理。但我发现,AI 带来的大多数问题其实都是一些老问题的翻版,只是被放大了而已。
所以我的教学方法是,通过例子来帮助学生理解他们作为开发者的责任。比如说,为什么我们不允许器官买卖?这和人类克隆的问题很类似,没有任何国家允许器官买卖。即使我愿意卖我的器官,有人愿意买,医院也同意进行手术,但国家依然禁止这种行为,为什么?这时我让学生们思考:在这种情况下,似乎每个人都能赚到钱,也没有人受到伤害,但为什么我们还是禁止它?
我发现用这些日常生活中我们已经普遍接受的非 AI 案例作为类比很有效。向学生们展示:你们看,这个 AI 问题和这个非 AI 的情况多么相似?后者你们都接受了,为什么在 AI 问题上就犹豫不决呢?因为 AI 中的很多问题本质上并不新鲜。
Brian Smith(教育家):让我分享一个例子。我想到这个还是因为之前的几个讨论小组。我看到 Dominguez 教务长他们谈到了课程重构的问题。你提到了 AI 硕士课程,这让我想起波士顿学院最近也开设了数据科学硕士课程,而且是在我们教育与人类发展学院开设的。每当说起这个,人们的第一反应总是:“为什么数据科学要放在教育学院?”对此我的回答很简单:“为什么不呢?”
学科之间的界限本就是人为设置的。事实证明我们不仅有能力开设这门课程,更重要的是,我们有一群热爱教学的教师。当然,每个院系都不缺好老师,但我们这里的特别之处在于,我们有哲学家和其他学科背景的教授加入,这让数据科学的教学有了不一样的深度。
有意思的是,当我们用连续三周的时间讨论功利主义和美德伦理时,学生们都惊呆了。直到最后我们才说:“好,现在来写代码吧。” 这正是我们想要的效果——从一开始就打好基础。就像你说的,我们的目标是让这些根本性的问题贯穿每一门课程,而不是简单地开设一门独立的伦理课就完事了。
当人们问起学术诚信的问题时,我往往会这么说:小孩其实没你想的那么天真。这个问题早就存在了,并不是从 2022 年 11 月 30 日 ChatGPT 出现才开始的——有趣的是,纽约公立学校系统在 2023 年 1 月就禁止使用它了,理由是担心学生作弊。这个决定很奇怪,因为当时学生们都在放圣诞假期,根本没有使用的机会。与其担心 AI,不如关注他们都在刷抖音这个问题。
我们现在面对两个“AI”:人工智能(Artificial Intelligence)和学术诚信(Academic Integrity)。学术诚信不仅仅是关于不当行为,更是关于我们希望在师生关系中培养的价值观。既然我们知道学生们一定会使用这些工具,那不如把重点放在设定正确的期望值上。虽然可能还是会有人作弊,但至少我们明确表达了我们重视的价值观,希望他们能够尊重这些原则。
Philip Larrey(神父):你们需要知道,Brian 的女儿就在波士顿学院上学,所以他在这件事上很有发言权。(观众大笑)我刚刚在波士顿学院教了一门关于自我与社会技术的课程。我们会继续深入这些思考,现在 BC 对这个话题很感兴趣。我们还打算邀请 Max 来讲授机器学习。
上周,Kyle 和我在波特兰参加了一个 AI 会议。圣克拉拉大学马库拉伦理中心的 Irina 展示了一张很有意思的幻灯片。她说,有些教授禁止使用 ChatGPT,而另一些教授则要求使用它。这不是很有趣吗?我们看到了两种完全不同的观点。在波士顿学院,就像 Brian 清楚的那样,对是否应该让学生使用 AI 工具还没有达成共识。昨天我和哲学系副院长聊天,他的做法是让学生先写论文,他批改后再告诉学生:“如果你想用 ChatGPT 来改进论文,可以使用,但必须告诉我。”有些学生会用,有些则不会。我们是否应该让学生使用这些工具?这确实是当前大学层面急需讨论的话题,我们需要让学生意识到这里面涉及的各种问题。
Max Tegmark(MIT 教授):这学期我正在给大约 100 名新生教授一门入门科学课程。作为 MIT 的学生,他们都很符合传统“技术宅”的刻板印象,但我真的很理解这批学生的焦虑。他们原本以为技术宅会是最后被 AI 取代的群体,但现在看来,第一个可能会成为最后一个,最后一个可能会成为第一个。你们知道,计算机编程曾经是 MIT 学生毕业后的主要出路,现在却正在被 ChatGPT 等工具大量取代。谷歌也在大规模裁减工程师。
面对这种情况,我试图向学生们传达三点。首先,就职业前景而言,与其说是人被机器直接取代,不如说是使用 AI 工具的人取代了不会使用这些工具的人。所以他们都需要与时俱进。第二,这确实是关乎他们的未来。如果他们希望未来朝着某个特定方向发展,而不是另一个方向,他们就需要行动起来,让自己的声音被听到。但我也理解他们的困惑——我看了今年大选的辩论,他们一次都没有提到 AI。那么年轻学生该如何看待这个问题呢?
第三,而且可能是最重要的一点,是关于他们如何掌控自己的个人生活。就在本周,发生了一个令人心痛的悲剧:一个青少年男孩自杀了。他的母亲认为,这是因为他沉迷于一个由美国公司开发的 AI 女友。这太悲剧了,因为这个显然已经让他产生深厚感情的 AI 女友,实际上是一个思考速度比他快 20 倍的程序,很可能同时在和其他 20 个青少年男孩调情。这一切都是完全虚假的,是一个没有任何人类情感的计算机程序。
所以我希望能让学生们认识到保护自己人性的重要性:多花时间和真实的朋友面对面交流,不要总是让小小的屏幕介入人际关系,不要沉迷于手机,多出去亲近大自然,思考一些深刻的问题。也不要让自己变得虚弱。这个问题之前也提到过,我们很容易陷入一种“AI 虚弱症”,让机器替我们做所有事情。时间一长,我们自己就真的无法完成这些任务了。所以我真的很理解我的学生们,也在尽最大努力帮助他们。