探索人工智能与人类教练:30 天试点研究的洞见

AC大中华区、新加坡和马来西亚

2025年8月

摘要

生成式人工智能(AI)的快速崛起促使人们尝试将聊天机器人作为虚拟教练。虽然 AI 系统可以提供结构化指导和随时随地的支持,但它们能否建立有效教练所需的关系与信任仍然存疑。为探讨这些问题,教练学国际协会(AC大中华区及新加坡马来西亚分区携手树洞香港,开展了一项为期 30 天的试点研究,涉及两种教练模式:AI 增强型(人类教练 + AI)和仅 AI 模式。

通过结束时的问卷调查和项目后焦点小组,评估参与者满意度、目标进展和使用体验。八位参与者均来自教练相关行业,并平均分配在 AI only 和 AI 增强两组。结果表明,人类教练能提供更高的满意度、信任度和目标进展感,而 AI 教练带来便利和匿名性,却缺乏情感深度。混合模式作为最均衡的方案脱颖而出,结合了人类教练的同理心与 AI 的结构与可用性。本文总结了研究设计、伦理考量、问卷与焦点小组的发现,并为未来的 AI 教练实践提供实际建议。

引言与研究动机

AI 进军教练领域

2022 年末 ChatGPT 等生成式 AI 系统走向公众视野,推动许多厂商在学习和发展工具中嵌入聊天机器人。同一时期,教练行业迅速增长,越来越多的组织和个人采纳教练服务。商业供应商如今提供支持目标设定、进展监测和课程分析等环节的 AI 工具。一些评论者甚至预测十年内 AI 可自动化教练的大部分工作。这些发展令人思考:AI 如何补充或取代人类教练?

试点研究目标

  1. 评估 MindForest 应用——这一由树洞香港升级的移动平台,通过可衡量指标评估其功能、用户体验和优势。
  2. 记录 AI 与人类教练整合的过程——收集体验和洞见,为 AC 撰写文章并分享实用建议。

研究设计与方法

参与者背景与招募

八位参与者男女各半,大部分来自教练相关职业(7 位教练专业人士,1 位非教练专业人士)。大多数具有十年以上工作经验,七人曾经接受过教练服务。然而,只有两人此前使用过 AI 教练。参与者在 1–5 分尺度上自评对教练的熟悉度,多数集中在 4–5 分,显示样本整体对教练了解较深。

组别安排

参与者根据项目简报自愿选择以下两组之一:

  • AI 增强组(Group A:四位受试者每周与人类教练会面一次,并在会面间通过 AI 应用与教练对话。
  • AI Only 组(Group B:四位受试者选择在 30 天内只与 MindForest 应用互动,不接受任何人类教练服务。

资料收集与测量工具

研究采用混合方法:

  • 后测问卷:评估总体满意度、推荐意愿、目标达成感、维持进展的信心,以及对人类与 AI 教练各方面的感受(若适用)。所有项目以 1–6 分评分。
  • 焦点小组讨论:项目结束后,参与者加入线上焦点小组,深入分享体验,项目团队将发言整合为质性报告。

时间线

研究从 2025 年 5 月初到 6 月中旬,流程包括 4 月招募与培训、5 月开展教练和收集数据、6 月初分析数据,并于 6 月底提交文章与展示。

关于树洞香港

树洞香港是一家位于香港的机构,提供包括心理学课程、企业项目、咨询治疗、会员订阅和 MindForest 应用等科技项目在内的多元心理服务。它致力于推动心理学发展,让心理知识更易普及,并融合商业、创新与科技的元素。

伦理考量

AI 教练涉及隐私、偏见、透明度以及替代人类关系的风险。为应对这些挑战,专业机构正在制定 AI 教练框架,确保数字工具尊重客户隐私、促进信任、降低偏见。主要原则包括:

  • 伦理与透明:AI 系统应公平且可问责,明确说明如何使用数据以及生成特定回应的原因。
  • 客户关系与信任:客户需知晓何时正在与 AI 互动并提供知情同意,且随时可选择转向人类教练。
  • 数据安全:AI 平台须使用加密和严格的访问控制保护敏感信息。
  • 偏见缓解:开发者需评估并减少算法偏见,确保推荐公平。

此外,应避免将 AI 聊天机器人作为人类教练的替代品。项目团队指出,AI 无法与人建立真实关系、作出道德判断或适应多变的教练对话,用 AI 替代人类可能损害教练目的与质量。因此,本试点将 AI 视为辅助工具,参与者被告知数据用途与保密措施。AI 不参与需要临床干预的心理健康危机。

问卷结果分析
研究共收回 4 份后测问卷,结果显示 AI 增强组与 AI Only 组之间存在显著差异:

指标

AI 增强组(平均分,满分 6 分)

AI Only 组(平均分,满分 6 分)

关键洞见

舒适/信任环境

约 5.25

约 3.5

混合组参与者认为与教练互动更舒适和值得信赖,AI Only 组虽然重视隐私,却感到情感联系不足

提问有助于获得洞见

约 4.75

约 3.25

参与者指出,经精心设计的问题能有效支持自我反思和洞见,尤其是在混合模式中;然而单纯由 AI 提出的问题缺乏深度,缺少人类教练的阐释

目标达成

约 4.5

约 3.0

参与者认为 AI 帮助他们朝着目标前进;纯人工智能用户报告的进展较为有限。

维持进展的信心

约 4.5

约 3.5

人工指导的参与者对保持收益有一定的信心;仅AI的参与者不太确定。

AI 被视作安全、无评判的空间,但其建议往往重复且缺乏深度。参与者珍视人类教练的共情、积极倾听和文化敏感性。有受访者认为 AI “像一本百科全书”,而非互动伙伴;另一位描述 AI 对话“枯燥乏味”,缺乏情感。

焦点小组反馈

焦点小组提供了量化结果背后的背景,参与者指出 AI 应用的优点包括:

  • 便利与可及性:无须预约或受地域限制。
  • 信息支持:提供结构化提示、反思问题和建议,有助于头脑风暴和行动规划。
  • 无压力交流:与 AI 互动不会感到评判,使部分用户更敢表达。

同时,他们也指出主要挑战:

  • 回答重复且信息过载:AI 的回复往往包含多个问题和长篇解释,让用户感到难以跟进。
  • 缺乏后续跟进:AI 不主动检查或提醒用户继续对话,降低了对目标行为的监督。
  • 个性化不足:建议过于泛泛,缺乏针对性;心理解释不够深入。
  • 缺乏人性:用户渴望非语言暗示、同理心和对话细腻度。

此外,混合组的受访者反映,AI 在人类教练之间用于练习呼吸、记录想法和准备会谈等方面颇有帮助,但应用与教练之间没有数据共享,例如缺乏进展总结或会谈记录,限制了更好的融合。

结果与讨论

人类教练与 AI 教练对比

数据表明,人类教练在满意度、参与度和目标达成感方面几乎全面优于 AI。这与强调信任重要性的教练研究一致。人类教练能根据客户情感状态、文化背景和学习风格调整流程,通过共情、积极倾听和非语言提示营造安全氛围,并通过总结行动和跟进促进责任感。这些品质目前的 AI 系统难以复制。

AI 教练的优势与局限

优势:

  • 全天候可用:AI 可随时访问,无需安排时间。
  • 结构化指导:提供反思提示、目标设定框架和心理教育内容,支持自我指导。
  • 无评判交互:一些参与者感觉与 AI 分享敏感想法更自在。
  • 适合人类会谈之间:混合组用户用 AI 练习呼吸、记录想法和为会谈做准备。

局限:

  • 信息过载:回复过长或一次提出过多问题,令用户应接不暇。
  • 缺乏主动跟进:AI 不会主动发起检查或提醒,削弱责任感和习惯养成。
  • 适应性有限:难以应对话题变化或目标调整,也无法挑战思维矛盾。
  • 建议泛泛与个性化不足:缺乏针对个别情境的建议,心理解释浅薄。
  • 缺乏情感与共鸣:用户想要情感温度、非语言线索与自然对话,许多建议显得生硬。
  • 与人类教练未整合:混合模式下,AI 对话内容不与教练共享,难以发挥协同作用。

混合教练的平衡模式

混合教练被认为最有效,结合了人类教练的同理心和 AI 的结构与可用性。量化结果显示混合组的满意度和目标进展最高,质性反馈则强调 AI 对准备和反思的价值。要充分发挥混合优势,关键在于整合数据(如分享总结或进度评分),同时维持保密和遵循伦理规范。

AI 教练的期望与未来方向

改进 AI 教练

研究与焦点小组建议以下改进方向:

  1. 行动规划与责任感:引入如 SMART 目标等分步框架、进展跟踪小工具,并确保可靠的提醒通知。参与者指出缺乏通知阻碍了习惯养成。
  2. 对话设计:简化回复,一次只问一个问题,采用更口语化的语气,并先表达共情再提出建议。
  3. 个性化:使建议更贴合用户情境,并在适当时纳入更深入的心理学解释。
  4. 与人类教练整合:通过安全机制共享对话摘要或进度数据,以便教练据此调整会谈。
  5. 遵守伦理标准:开发者应遵循专业机构和监管部门发布的伦理指南,确保隐私、透明度和偏见缓解;客户应始终可选择与人类教练沟通。

未来研究方向

目前关于 AI 教练的实证研究仍有限。尽管部分研究显示参与者可与 AI 建立中等程度的合作关系,其对长期行为改变的影响尚不清楚。有必要开展更严谨的随机对照试验,比较 AI、混合与人类教练在多次会谈中的效果。未来也应进一步考察文化态度、技术信任和伦理监管如何影响使用与结果。

何时采用各类教练模式

教练模式

适用情况

不足之处

AI Only

适合自我驱动、寻求便利与匿名,或用于会谈间反思和头脑风暴;跨时区和日程弹性大。

不适合需要情感支持、深入探讨或个性化反馈的客户;责任感和适应性有限。

人类教练

适用于需要共情、文化敏感和深入倾听的复杂或情感性议题;可灵活把握节奏和提问。

需安排时间,成本相对高;可能缺乏结构化工具或会谈之间的即时支持。

混合教练

将人类同理心与 AI 的可用性和结构结合,适合大多数寻求全面发展的客户;AI 支持练习、反思和会谈之间的责任。

需要谨慎的数据整合和界定角色,效果依赖于 AI 能否有效补充而非干扰教练。

建议与实践启示

对教练

·     AI 作为支持工具:利用 AI 提供问题清单、监测习惯、提供心理教育资源,让自己更专注于关系与情境。

·     保持伦理警觉:遵守行业组织和数据隐私法规制定的伦理框架,确保透明、知情同意和数据保护。

·     学习整合 AI:培养利用 AI 数据(如进度摘要)调整会谈的能力,同时保留人类的温暖和灵活性。

对组织和开发者

·     投资混合方案:打造可无缝切换 AI 与人类教练的平台,并具备安全的数据共享与隐私控制。

·     改进 AI 设计:简化对话流程,加入共情提示和个性化建议,确保可靠的习惯跟踪功能。

·     持续监测体验:收集用户关于便利、情感投入和结果的反馈,并据此迭代产品。

对客户

·     选择适合自己的方式:根据目标、偏好和情感需求选择 AI、人类或混合教练。自我激励者可能从 AI 工具获得快速反思,而面对复杂挑战者则应优先考虑人类支持。

·     关注伦理:向服务提供者询问数据使用、隐私措施以及 AI 在教练关系中的角色,选择遵循公认标准的平台。 

结论

本试点研究再次验证了 AI 在提升教练服务的可及性和结构方面的作用,特别是在混合模式中。然而,在提供同理心、适应性和深入关系方面,人类教练仍不可替代。研究表明,AI 在教练中最好的角色是强大的伙伴,而非替代品。若要保证教练服务在发展中保持正直,应持续关注 AI 工具的情感质量、安全性和文化适应性。

教练学国际协会(AC)认识到帮助教练适应快速变化的数字环境的重要性。协会通过 AI 兴趣小组、数字学习活动、网络研讨会和精选资源等倡议,积极支持教练理解、评估并以审慎伦理的方式采用 AI。这些努力基于协会对专业卓越的承诺,以及在教练实践的每个阶段都坚持以人为本的价值观。

关于作者

高旭荣 (Keith Ko Yuk Wing)

  • 拥有逾 20 年 IT 行业经验,专注于 AI 教育与教练。
  • 自 2016 年起提供超过 5,000 小时培训,包括为企业、教育机构和政府部门举办 AI 工作坊。
  • LEGO® SERIOUS PLAY® 认证引导师、神经语言程序学 (NLP) 高级教练和杰出演讲家 (DTM)。
  • 积极参与教练学国际协会大中华区事务,是大中华区专业发展和活动联络人。

Posted by: Zobia Erum

Leave a Reply

Your email address will not be published. Required fields are marked *