1. 项目概述:为什么我们需要关注ML/AI学生的“留下来”问题?
机器学习与人工智能,这两个词如今几乎成了科技领域的“顶流”。无论是新闻里关于ChatGPT的讨论,还是招聘网站上动辄百万年薪的算法工程师岗位,都在不断强化一个信号:这是未来。作为一名在高校和工业界都待过些时日的从业者,我见过太多学生满怀热情地扎进这个领域,从学习第一个线性回归模型开始,到啃下艰深的论文,一路过关斩将。但我也同样目睹,不少极具潜力的面孔,在某个阶段后悄然转身离开,不再将ML/AI作为长期的职业追求。这背后流失的,不仅仅是个人才,更可能是未来技术发展中至关重要的多元视角和创造力。
最近,一项针对北美一所顶尖大学ML/AI课程学生的调查研究,把这个问题摆到了台面上。研究不再仅仅关注“如何教得好”,而是深入追问:究竟是什么因素,决定了一个学生是打算“浅尝辄止”地修完一门热门课,还是真正愿意在这个领域深耕五年、十年甚至更久?这项研究提出的“持续参与度”概念,恰恰戳中了当前ML/AI教育与实践衔接的痛点。它包含两层含义:一是短期内的“意向持续性”,比如是否计划选修下一门相关课程;二是长期的“行为持续性”,即未来是否真的投身于ML/AI的学术或工业界职业。
研究的初步发现很有意思,甚至有些反直觉。比如,学生对自己“专业角色信心”的高低,是预测其长期留任意愿的关键指标。这不仅仅是“我数学好不好”、“我代码强不强”的技术自信,更是一种对“我是否适合吃这碗饭”、“我能否在这个行业找到满意位置”的整体职业认同。另一个关键发现是,那些强烈希望自己的工作能产生积极社会效益的学生,其长期留在ML/AI领域的意愿反而可能更低,而女性学生在这一项上的得分普遍更高。这似乎形成了一个令人担忧的悖论:最关心技术伦理与社会影响的那部分人,可能正在离开这个最需要他们的领域。与此同时,研究还揭示了一个常被技术课程忽略的维度:非技术性人际交往能力,如沟通、协作和领导力,其自信程度与长期坚持呈显著正相关。
这些发现远不止是学术论文里的几行数据。它们直接关系到我们如何设计课程、如何与学生对话、如何塑造这个领域的文化。如果我们的教育只教会学生调参和刷榜,而忽视了职业身份构建、社会价值连接和软技能培养,那么我们可能正在系统性地“劝退”一批本可以大放异彩的多元化人才。这不仅是教育公平问题,更关乎ML/AI技术本身能否健康、负责任地发展。毕竟,一个由背景、价值观和能力都高度同质化的群体所构建的智能系统,其偏见和盲区将是根深蒂固的。接下来,我将结合这项研究的具体发现和我在跨学界、业界观察到的实际情况,深入拆解影响学生持续参与度的核心因素,并探讨那些真正能留住人才、激发潜力的教育策略究竟该怎么做。
1.1 核心问题拆解:从“学完”到“留下”的鸿沟
传统上,衡量一门ML/AI课程成功与否的指标,往往是期末考试成绩、项目完成度或者学生对教学内容的满意度。这些指标当然重要,但它们回答的是“学生是否学会了”的问题,而不是“学生是否想留下来”。这项研究将焦点后移,关注的是学习行为发生之后的选择,这恰恰是人才管道是否通畅的关键阀门。
研究通过问卷调查,测量了两个核心的因变量:
- 短期意向持续性:询问学生“你有多大可能再选修一门ML/AI课程?”这衡量的是学生在学术路径上继续探索的即时意愿。
- 长期意向持续性:询问学生“你有多大可能在五年后从事ML/AI相关(学术界或工业界)工作?”这触及了学生的职业身份认同和长远规划。
为了解释这两种持续性,研究考察了四类主要的预测变量:
- 人口统计学与学术背景:如性别、种族、年级、专业、是否修读过先修课程等。这是最基础的控制变量,用于理解不同群体间的差异。
- 专业角色信心:借鉴自工程教育研究,包含三个子维度:
- 职业匹配信心:是否觉得ML/AI是适合自己的职业,能否找到满意的岗位。
- 专业能力信心:是否相信自己能掌握所需技能并在职业道路上取得进步。
- 社会归属信心:是否觉得自己能融入ML/AI领域的专业社群和文化。
- 自我评估与价值观:
- 技术/非技术能力自评:对自己数学、编程、沟通、团队合作、领导力相对于同龄人的评分。
- 社会效益兴趣:是否看重工作对社会有积极贡献、符合个人道德观。
- 高薪兴趣:是否看重高收入。
- 竞争性参与:是否经常参与竞赛类活动。
- 环境感知:
- 领域热度影响:选择这门课是否因为ML/AI很热门。
- 环境毒性感知:是否在课程中经历过或观察到基于身份(如性别、种族)的歧视、区别对待或负面刻板印象。
通过统计分析,研究试图勾勒出哪些因素在推动或阻碍学生跨越从“学习者”到“从业者”的鸿沟。理解这些因素,是设计有效干预措施的第一步。
2. 影响持续参与度的关键因素深度解析
研究结果揭示了几组非常有力且有时出人意料的关联。这些发现不是孤立的数字,它们背后反映的是学生在面对ML/AI这个光鲜又充满挑战的领域时,复杂的内心权衡和外部环境压力。
2.1 专业角色信心:职业身份的“定心丸”
研究发现,职业匹配信心和专业能力信心是预测长期留任意愿非常稳健的指标。这很好理解:如果你不相信自己属于这里,也不相信自己能做好,自然很难有长期坚持的动力。
- 职业匹配信心:这关乎“我是否适合”。许多学生,尤其是来自非传统计算机背景(如机械、工业工程、甚至社会科学)的学生,在进入ML/AI领域时,常有一种“局外人”心态。他们可能精通本专业的知识,但面对“计算机科学家”、“数据科学家”、“算法工程师”这些标签时,会产生身份认同上的犹豫。研究附录F的表格就很有趣:当被问及未来在ML/AI领域会如何自我认同时,机械与工业工程专业的学生中,只有约50%选择“工程师”,高达41.79%的人选择了“数据科学家/分析师”,而选择“计算机科学家”的仅占1.49%。这暗示了专业背景如何塑造了他们对自身在ML/AI生态中角色的想象。教育者需要帮助学生拓宽对ML/AI职业角色的理解,明确告诉他们,你的机械背景能让你的机器人控制算法更优,你的社会学背景能让你的用户行为模型更贴近现实。“适合”的定义需要被拓宽和具体化。
- 专业能力信心:这关乎“我是否能做好”。值得注意的是,这种信心并非完全等同于客观的技术能力。研究测量的是学生的“主观自信”。过往大量研究表明,在STEM领域,女性及少数群体学生即使在客观能力相当的情况下,也更容易低估自己的技术水平,这种现象被称为“信心差距”。ML/AI课程中大量的数学推导、编程作业和以排行榜论英雄的项目,有时会无意中加剧这种信心差距。一个在沟通协作上表现出色的学生,可能因为一次模型调参的挫折就全盘否定自己在领域内的潜力。
实操心得:在课程设计中,除了最终模型精度,应设立多元化的成功标准。例如,将“清晰阐述模型决策过程”、“设计公平的数据评估方案”、“与领域专家有效协作完成问题定义”纳入评分体系。这能让不同优势的学生都找到建立专业能力信心的支点。
2.2 社会效益追求与性别悖论:一个亟待解决的冲突
这是本研究最引人深思的发现之一:对社会效益的强烈兴趣,竟然是长期留任意愿的负面预测因素,且女性学生在此项上的平均得分显著更高。
这听起来像个悖论:一个立志用技术让世界更美好的学生,反而更可能离开这个最具变革潜力的技术领域?结合我对行业和学术界的观察,这背后可能有几个层面的原因:
- 课程内容与社会价值的脱节:许多入门乃至中阶的ML/AI课程,重心放在算法原理、优化目标和性能指标上。案例研究也常是MNIST手写数字识别、ImageNet图像分类这类经典但离社会现实较远的任务。学生很少被系统性地引导去思考:我训练的这个人脸识别模型,如果部署在公共场所,对不同肤色人群的准确率差异意味着什么?我的推荐算法在提升点击率的同时,是否加剧了信息茧房?当课程不主动建立技术学习与社会伦理之间的桥梁,那些怀有强烈社会关怀的学生就会产生疏离感,觉得所学技能与内心价值无法对接。
- 行业叙事与个人价值观的错位:尽管“AI for Good”的口号越来越响,但学生接触到的行业主流叙事,尤其是通过媒体和高薪招聘传递的信息,仍然强烈地与商业变现、效率提升、竞争获胜绑定。那些渴望解决气候变化、医疗不平等、教育普惠等问题的学生,可能看不到清晰的、主流的职业路径来实现这些目标。他们担心进入这个领域后,最终只能为电商平台优化广告点击率,这与初衷背道而驰。
- 女性学生的双重负担:社会文化常将女性与关怀、利他等特质更紧密地联系在一起。因此,女性学生可能更普遍地持有强烈的社会效益价值观。当她们发现ML/AI领域的教育和职业路径似乎与这种价值观存在张力时,产生的失望和退出意愿也会更强烈。这不仅是人才的流失,更是多元化视角,特别是那些关注技术伦理与社会影响的视角的流失。
注意事项:教育者绝不能将这一发现误解为“应该劝学生别太关心社会效益”。恰恰相反,这敲响了警钟:如果我们的教育和行业文化不改变,我们正在主动驱离那些可能对构建负责任、合乎伦理的AI系统最关键的人才。必须将伦理、公平、问责和社会影响深度嵌入ML/AI课程的核心,而不是作为一门选修课或一次讲座。
2.3 人际交往能力:被低估的“软实力”加速器
与对社会效益兴趣的负面预测相反,研究明确显示,学生对自身非技术性人际交往能力(沟通、团队合作、领导力)的自信,是预测其长期坚持的积极因素。
这个发现极具启发性。它打破了“AI高手都是孤独天才”的刻板印象,指向了ML/AI工作的真实协作场景:
- 工业界实践:一个成功的ML项目,从问题定义、数据获取、清洗、建模、部署到监控维护,几乎每一步都需要跨职能协作。算法工程师需要与产品经理沟通需求边界,与数据工程师协作搭建管道,向业务方解释模型输出的商业含义,向法务合规部门说明算法的公平性考量。缺乏沟通和协作能力,技术再强也寸步难行。
- 学术研究前沿:当今重大的AI突破,越来越多地来自大型实验室或跨机构、跨学科的合作。撰写清晰的论文、进行有说服力的学术报告、有效指导研究生、申请和管理科研项目,这些无一不依赖强大的人际交往能力。
然而,传统的ML/AI课程评估几乎完全集中于个人编程作业和模型性能。小组项目也常常沦为“拼盘式”合作,缺乏对团队动态、角色分工、冲突解决等软技能环节的引导和评估。这导致那些在这些方面有潜力或已具备能力的学生,无法在课程中获得正反馈和信心确认,甚至可能因为不擅长“单打独斗”式的编码而受挫,低估了自己在领域内的长期竞争力。
2.4 环境感知与其他因素:背景与氛围的塑造力
- 学术背景的影响:研究证实,学生的专业和学历阶段是预测短期选课意向的重要因素。计算机科学或相关专业的学生更可能继续选修,这在意料之中。但这也提醒我们,要为非科班出身但对ML/AI感兴趣的学生提供更友好、衔接更顺畅的路径,比如设计面向不同背景的“桥梁”课程或项目。
- “热门”驱动的学习:相当一部分学生承认,选择ML/AI课程是因为该领域热门。这本身不是问题,热门意味着机会。但关键在于,教育如何将这种外部的“热度”转化为学生内在的、可持续的兴趣和认同。如果课程只是知识的灌输,而没有点燃学生对解决实际问题的热情,那么当下一波技术热潮来临时,这些学生很容易流失。
- 环境毒性感知:虽然在此次研究中,对歧视或偏见环境的直接感知与持续性未显示出统计学上的显著关联,但大量其他研究已反复证明,一个充满微歧视、排斥性文化或 stereotype threat(刻板印象威胁)的环境,是导致女性和少数群体离开STEM领域的核心原因之一。附录中的分组数据也显示,不同种族、性别群体在“环境毒性”感知上存在差异。这是一个必须持续监控和干预的底线问题。
3. 从研究发现到教育实践:构建支持持续参与的教学策略
基于以上发现,ML/AI的教育者不能只当知识的传授者,更需要成为学生职业身份的共建者、价值观的连接者和软技能的培养者。以下是一些具体、可操作的教学策略建议。
3.1 重塑课程叙事:连接技术学习与社会价值
目标是解决“社会效益追求者流失”的悖论,将伦理与社会责任从“附加项”变为“核心项”。
- 案例教学法升级:
- 选择有伦理复杂性的真实案例:不止于房价预测、鸢尾花分类。可以引入COMPAS再犯风险评估算法(讨论公平性)、面部识别技术的种族偏见(讨论代表性)、用于招聘的AI筛选工具(讨论透明度与问责)。让学生分析其中涉及的技术选择、数据偏差和社会影响。
- 设立“影响评估”环节:在每个项目作业中,增加一个必选部分,要求学生不仅报告模型性能(如准确率、F1分数),还要撰写一份简短的“社会技术影响声明”。内容可包括:该模型可能的部署场景、可能惠及或损害的群体、潜在的误用风险、以及为减轻危害可采取的技术或非技术措施(如公平性约束、可解释性方法、人工审核流程)。
- 邀请多元背景的实践者:
- 不要只请来自大厂、谈论模型SOTA(最先进水平)的工程师。刻意邀请那些在非营利组织、政府机构、公共卫生、环境保护等领域应用AI解决社会问题的从业者。邀请关注AI伦理的政策研究者、律师或社会科学家。让学生看到ML/AI实现社会价值的真实、多元的职业图景。
- 在嘉宾分享后,组织小型研讨会,主题可以是“在商业约束下推动AI向善”或“衡量AI项目的社会投资回报率”,引导学生进行深度对话。
- 设计具有社会意义的期末项目:
- 与本地社区组织、环保机构或公共部门合作,提供真实的数据和问题。例如,分析公共自行车系统的使用数据以优化站点布局(促进绿色出行),利用卫星图像和机器学习监测森林退化,为视障人士开发辅助识别的应用原型等。让学生从解决一个真实世界的小问题开始,体会技术创造积极改变的成就感。
3.2 系统性培养非技术能力:将“软技能”硬性化
目标是让沟通、协作、领导力等能力的培养,像学习梯度下降算法一样,有框架、有练习、有反馈。
- 结构化的小组项目设计:
- 明确角色与职责:在项目开始时,不仅分配技术任务(如数据预处理、模型A/B、前端开发),更明确设立非技术角色,如“项目经理”(负责进度协调与会议纪要)、“客户联络员”(负责与助教或模拟客户沟通需求变更)、“成果汇报人”(负责最终的技术报告撰写与演讲)。要求学生在项目中轮换角色。
- 引入同伴评估:设计匿名的同伴互评表,不仅评价技术贡献,更评价“是否积极倾听队友意见”、“是否清晰表达自己的观点”、“在冲突出现时是否建设性地参与解决”。将互评结果按一定权重计入个人总成绩。
- 过程性评审:设立中期检查点,评审重点不是模型跑了多少轮,而是团队是否召开了启动会议、是否有共享的项目管理文档(如看板)、是否明确了沟通机制。助教可以参与旁听一次团队会议,并提供关于团队协作的反馈。
- 将沟通作为核心考核点:
- 技术报告写作:制定清晰的评分标准,强调问题陈述的清晰度、方法描述的可复现性、结果讨论的深度(包括局限性和潜在偏差),而不仅仅是图表的美观。
- 面向多元受众的演示:要求学生进行两次演示:一次是面向技术同行(如班上同学)的深度技术汇报;另一次是面向“非技术决策者”(如扮演公司高管或社区代表的助教/教师)的总结汇报,要求他们用通俗语言解释项目价值、关键发现和风险,并回答业务层面的问题。后者往往更能锻炼学生提炼核心、换位思考的能力。
- 开设专门的研讨工作坊:
- 利用1-2个课时,举办“如何做有效的技术演讲”、“如何撰写清晰的项目提案”、“团队协作中的冲突管理”等工作坊。可以邀请学校职业发展中心或沟通中心的老师来主持,提供专业的框架和即时练习。
3.3 提升专业角色信心:构建包容性的学习共同体
目标是帮助每个学生,无论背景如何,都能在ML/AI领域找到自己的位置和信心。
- 展示多元化的职业榜样:
- 在课件、阅读材料、嘉宾邀请中,有意识地展示不同性别、种族、专业背景的ML/AI科学家、工程师、创业者和思想领袖的成功故事。特别要分享那些路径非典型的案例,比如从文科转行做AI产品经理,从生物博士跨界做计算生物学家。
- 制作“ML/AI职业地图”信息图,清晰展示从算法研发、数据工程、MLOps(机器学习运维)、产品经理、AI伦理顾问到政策研究员等不同岗位的技能要求、工作内容和典型项目。
- 提供差异化的成功路径和反馈:
- 在课程项目中,设立不同难度的“轨道”或挑战选项,允许学生根据自身基础选择。例如,基础轨道完成一个标准Kaggle竞赛;进阶轨道则要求对模型进行公平性审计或部署为简易API。
- 教师的反馈不应仅限于“这里代码效率低”或“这个模型选择不对”。应增加对思维过程、问题拆解能力和学习韧性的肯定性反馈。例如:“你尝试用三种不同特征工程方法来应对数据不平衡问题,这种系统性的探索非常棒。”
- 营造心理安全与归属感的课堂文化:
- 教师公开表态:在课程伊始,教师应明确表达对多元化、包容性和公平性的承诺,声明课堂不容忍任何形式的歧视或骚扰,并告知学生反馈问题的渠道。
- 建立同伴支持网络:可以组织由高年级学生或助教担任导师的“学习小组”,特别是针对低年级或转专业学生,提供一个可以安全提问、交流困惑的非正式空间。
- 常态化收集匿名反馈:不仅收集对教学内容的反馈,也定期(如每月)通过匿名问卷了解学生对课堂氛围、小组合作体验的感受,以及对歧视或微侵犯事件的观察,以便及时干预。
3.4 针对特定学生群体的支持策略
研究中的分组数据分析(见附录C、D、E)揭示了一些需要特别关注的群体差异,教育策略应有所侧重:
- 对国际学生:数据显示,国际学生的长期留任意愿显著更高,但对社会效益的兴趣也更高。他们可能面临独特的文化适应和职业路径不确定性。可以提供关于不同国家/地区AI产业生态、工作签证政策、跨文化职场沟通的讲座或资源。鼓励他们参与能发挥其跨文化视角优势的项目。
- 对有贷款负担的学生:研究显示,有学生贷款的学生对高薪的重视程度相对更高,且短期选课意愿略低(可能迫于即时就业压力)。在职业指导中,可以更务实地与他们探讨ML/AI领域内不同岗位的薪酬范围、成长曲线和职业稳定性,帮助他们做出兼顾兴趣与现实的长远规划。
- 对女性和少数族裔学生:除了营造包容性环境以对抗“环境毒性”感知外,可以主动联系并鼓励他们申请相关的本科生研究机会、行业实习或奖学金项目。提供由女性或少数族裔教师/高年级学生担任的导师。在课程案例和阅读材料中,确保内容的代表性和无偏见。
4. 教育者的角色超越与系统变革
将上述策略落地,意味着对ML/AI教育者提出了更高的要求。我们不再仅仅是某个算法的专家,更需要成为:
- 课程设计师:能够将技术知识、伦理思考、软技能训练无缝整合到教学大纲和活动中。
- 职业导师:了解行业动态,能为学生描绘多元化的职业图景,并提供个性化的建议。
- 社群构建者:有能力在课堂内外培育一个支持、协作、尊重多元的学习共同体。
- 价值观的引导者:敢于并善于与学生探讨技术背后的价值选择和社会责任。
然而,单靠教师的努力是远远不够的。院系和学校层面需要进行系统性的变革:
- 教师发展与招聘:为现有教师提供关于包容性教学法、课程伦理整合、团队项目管理等方面的培训。在招聘新教师时,将教学理念和对教育公平的承诺作为重要评估维度。
- 课程体系改革:将伦理、沟通、团队合作等能力明确写入ML/AI专业的培养目标和毕业要求中。设立跨学科课程,鼓励与哲学、社会学、公共政策等院系合作开发联合课程或项目。
- 资源与激励:为教师开展教学创新(如设计社会影响项目、组织跨学科合作)提供经费和时间支持。在职称评定和绩效考核中,认可教师在促进学生持续参与和多样性方面的工作成果。
- 数据跟踪与评估:建立长效机制,持续追踪毕业生的职业发展路径,特别是不同性别、种族背景学生的留存情况。用数据来评估教育干预措施的效果,并据此进行迭代改进。
5. 常见问题与教育者行动指南
在实际操作中,教育者可能会遇到一些典型疑问和挑战。以下是一些常见问题的分析与建议:
Q1:课程时间已经非常紧张,如何还能挤出时间加入伦理讨论和软技能训练?A1:这不是做加法,而是做整合。不需要单独开一门“AI伦理”课,而是将伦理问题作为技术教学的一部分。例如,在讲分类算法时,自然引入公平性指标(如均衡机会、统计对等)和偏见缓解技术。在布置项目时,将影响评估报告作为必须交付物。软技能训练同样可以融入现有环节:将小组项目的过程管理作为评分项,将一次作业汇报拆分为技术版和商业版两次展示。关键在于重新设计教学环节,而非简单叠加。
Q2:如何评估“社会效益兴趣”或“专业角色信心”这种主观因素?我们又该如何打分?A2:对于研究而言,这些通过量表测量。对于教学,我们的目的不是给学生“社会关怀”或“自信心”打分,而是创造观察和反馈的机会。可以通过反思性作业(如“描述一个你认为存在伦理风险的AI应用,并分析技术决策点”)、课堂讨论参与度、小组合作中的表现观察(由助教或通过同伴互评)来了解学生的倾向和状态。反馈可以是描述性的、鼓励性的,旨在引导和激发,而非评判。
Q3:有些学生就是冲着高薪来的,对伦理和社会价值不感兴趣,强行灌输是否会引起反感?A3:教育的目的不是灌输单一价值观,而是揭示选择的复杂性和后果。对于更关注经济回报的学生,可以从风险管理和长期职业发展的角度切入。例如,讲解因忽视伦理而导致的产品下架、巨额罚款、公司声誉受损的案例(如某些面部识别公司)。可以论证,具备伦理意识和跨领域沟通能力的工程师,在复杂项目中更具领导潜力,职业天花板更高。将伦理和社会责任呈现为一种重要的职业素养和核心竞争力,而不仅仅是道德要求。
Q4:在鼓励协作的同时,如何防止“搭便车”现象,并公平评估个人贡献?A4:这是小组项目的经典难题。解决方案在于过程透明化与评估多元化:
- 工具:强制使用Git等版本控制系统,代码提交历史可作为个人技术贡献的客观参考。
- 文档:要求团队维护共享日志,记录每次会议讨论要点、决策和任务分配。
- 评估:采用“综合评分制”:最终项目成果得分(小组共享) + 个人贡献得分(基于Git记录、会议记录、同伴互评和个人的反思报告)。个人反思报告要求学生阐述自己承担的具体工作、遇到的挑战、如何解决以及从团队合作中学到了什么。
- 机制:设立中期“健康检查”,让团队成员匿名反馈合作情况,助教可及早介入调解。
Q5:作为教育者,我感觉自己对社会学、伦理学知识也不够熟悉,如何胜任这种跨学科教学?A5:没有人是全能专家。关键在于转变角色,从“知识的唯一源泉”变为“学习过程的引导者和协调者”。
- 自我学习:主动参加相关的教师培训、工作坊,阅读AI伦理、科技与社会研究方面的入门书籍和经典论文。
- 合作教学:积极邀请哲学、法学、社会学、公共政策等院系的同事进行联合授课、客座讲座或共同指导项目。
- 利用资源:使用已有的优秀教学资源,如MIT的“AI伦理”公开课材料、斯坦福“以人为本的AI”研究所发布的案例库、Partnership on AI提供的教育工具包等。
- 坦诚姿态:可以坦诚地告诉学生,“关于这项技术的伦理影响,我也在学习和探索中,让我们一起通过阅读、讨论和批判性思考来寻找答案。”这种开放的姿态本身就是一个良好的示范。
机器学习与人工智能领域的未来,不仅取决于算法的进步,更取决于塑造这些算法的人。一项关于学生持续参与度的研究,就像一次对人才管道健康状况的精密扫描。它清晰地显示,如果我们只关注技术知识的灌输,而忽视学生职业身份的建设、价值观的安放和综合能力的培养,这个管道就会出现“泄漏”,流失掉那些可能带来创新视角和负责任发展的人才。教育者的使命,远比传授卷积神经网络的原理更为深远。我们需要精心设计学习体验,让每一堂课、每一个项目都成为一座桥梁,连接起抽象的数理逻辑与具体的人类关切,连接起个体的技能成长与社群的归属认同,连接起当下的热门选择与长远的职业人生。当学生不仅学会了如何构建一个模型,更清晰地看到了自己如何能作为一个有道德、善协作、有信心的实践者,在这个领域找到意义和位置时,他们“留下来”的理由,才会真正坚实而持久。这不仅仅是提高课程留存率,这是在为构建一个更多元、更包容、也更负责任的智能未来,奠定最重要的人才基石。