本文探讨了人类通过访谈形式与对话型人工智能互动时产生的修辞和教学动态。尽管机器生成的语言看似对话,但这种相似仅仅是表面现象:系统表现出理解能力,但并无内在意识、意图或认知能力。通过一系列结构化的提示和回应,文章分析了系统如何模拟共情、权威和中立性,以及这些表现如何影响人类对话者的解释性工作。精心策划的交流揭示了一个一致模式:系统平滑化冲突,将歧义重新定义为待解决的问题,并趋向于达成共识,即使在张力或分歧在教学上是必要的情况下。这些倾向揭示了对话型AI在依赖互惠、风险及面对困难能力的学习环境中的结构性局限。文章不将AI回应视为数据,而是作为修辞产物,揭露机器对话的架构以及维持对话幻觉所需的人类工作。分析最后提出实践启示,为成人教育者提供利用结构化AI对话体验支持批判性AI素养的具体策略,包括设计揭示解释习惯的提示,比较AI反馈与人类反馈以突出模拟认知的局限,以及利用AI趋向共识的特性教授学习者如何介入歧义和民主张力。通过强调机器对话的修辞特性,文章为帮助成人学习者以辨识力和伦理意识解读AI生成语言提供了概念和实践框架。
Building similarity graph...
Analyzing shared references across papers
Loading...
Sherrie Bartell
Adult Learning
People’s University
University of the People
Building similarity graph...
Analyzing shared references across papers
Loading...
Sherrie Bartell(Fri,)研究了这个问题。
www.synapsesocial.com/papers/69eefd43fede9185760d3f93 — DOI: https://doi.org/10.1177/10451595261447522
Synapse has enriched 5 closely related papers on similar clinical questions. Consider them for comparative context: