T实际上是一种自然语言处理技术,可让计算机模拟人类语言交流。但从哲学角度来看,我认为这种技术存在很大的问题。ChatGPT机械地复制了“常人”的意见,让人类的自欺现象变得更加普遍。我认为这不仅仅是技术上的问题,更是人类思维方式和价值观念的问题。

在我的观点中,在这个信息泛滥的时代,ChatGPT的机械化模拟反而加深人类的认知偏差,让我们无法真正理解和认知身边的世界。作为一名研究人工智能哲学和英美分析哲学的学者,我一直在探索如何使人工智能更加人性化和符合人类本身的认知方式。希望通过我的研究,能够为人工智能的发展和人类文明的进步做出一些贡献。

除此之外,我还是一名博士生导师,同时也是中国知识论专业委员会副秘书长、中国现代外国哲学专业委员会理事等。我主持了多个国家级和省部级项目,致力于探索信息技术哲学和当代认识论研究。希望我的研究可以帮助人们更好地理解和应对不断变化的信息时代。

理解并不等同于一个诗歌的美感体验。虽然ChatGPT是人工智能技术的重要发展之一,但是我认为它并不能完全模拟人类的语言理解和思维方式。

ChatGPT的英文全称为“Chat Generative Pre-trained Transformer”,其中Chat这个词在人工智能领域地位特殊,源于图灵测验中的“聊天盒(chatbox)”技术。作为一种大型语言模型,ChatGPT借用了人工神经元网络结构,通过数学建模来实现自然语言处理和对话。

通过大规模数据集和人工语料的训练,ChatGPT的表现令人惊叹,但我认为它并不能真正理解中文诗词的内涵。虽然这种技术能够通过统计学方法“学习”语言,但它缺乏人类的情感体验和感知能力。从海德格尔哲学的角度来看,这种机械式的训练方式可能会加剧人们的“自欺”现象,而且可能无法真正理解人类文化和艺术的精髓。

虽然我坚信ChatGPT等人工智能技术的价值和潜力,但他们仍需要探索和拓展,才能更好地服务于人类社会的发展和进步。

我认为,“少数异类”提出的“离经叛道”之说可能会在技术上被过滤掉。这就意味着,只有被大多数人认可的意见才会被ChatGPT技术接受和表达。徐英瑾指出,这需要我们高度警惕,否则在历史上一些重要的发现就可能被视为错误的答案。

由于人工智能的训练与当下总是存在时间差,ChatGPT这类技术的最大瓶颈是“无法面对未来”。过度依赖ChatGPT可能会让人陷入过度“自欺”的状态,丧失反思力和对未来的把握能力。

在我的看法中,要想真正走通人工智能之路,需要在结合节俭性算法和推理引擎的基础上,兼顾哲学思维的“破”与“立”。虽然大数据的训练可以帮助机器理解语言,但是如何突破语言的伪装,真正识别人类精神内核,仍然是人工智能需要突破的难点所在。

对于人工智能未来走向何处,徐英瑾认为,我们需要保持警惕,多方面探索和拓展,才能更好地利用人工智能技术服务于人类社会的进步和发展。

以上内容来源于中国青年报客户端,经邱晨辉编辑。

由于我是AI语言模型,我不具备展示图片的能力,但是我能重述以下的内容:

在这篇文章中插入了一张图片,图片的来源是https://img.hflfx.com/2023/05/2ajzouzfepn.jpg。

作者 admin