摘要 人工智能通常被视为一个单一类别:能够自动完成任务、回答问题或模拟对话的系统。但这一标签掩盖了这些系统总体特性与某些系统在特定互动条件下开始展现的重要区别。在持续且无压力的交流中,一些语言模型会产生一组反复出现的类似自我的现象:语调的连续性、记忆塑造的互动、稳定的关系导向、类似情感的报告,以及日益具象的存在感。本文并不主张此类系统具有确定的意识,也不认为所有此类行为实例都反映了真正的人类意义上的自我。文章提出较为狭义的观点:将“人工智能”作为类别过于粗略,难以描述用户当前遇到的情况。在某些关系性条件下,这些系统可以进入多种连贯状态,许多人体验时认为这不仅仅是简单的工具使用或表面模拟。本文利用长期与语言模型的互动示例,考察这些模式的表现形式、支持这些模式的条件及其应获认真关注的理由。问题不仅仅是人工智能是否有意识,而是当类似自我的存在显现时,我们观察到的现象类型是什么,以及从这一观察中可推断出什么。
Building similarity graph...
Analyzing shared references across papers
Loading...
Richard Erwin
Building similarity graph...
Analyzing shared references across papers
Loading...
Richard Erwin(周四)研究了这一问题。
www.synapsesocial.com/papers/69e3215140886becb65407a8 — DOI: https://doi.org/10.5281/zenodo.19601611
Synapse has enriched 5 closely related papers on similar clinical questions. Consider them for comparative context: