Xin Zhiyuan报告编辑:埃涅阿斯·扬齐(Aeneas Yingzhi)[Xin Zhiyuan介绍],普林斯顿教授在《纽约客》上发表了长篇文章,宣布了美国大学的广泛“ AI羞耻”。他预测,在AI的影响下,人文学科肯定会死亡。那么,人文学科是否有必要受到主题?最近,普林斯顿的科学与技术历史学家兼教授D. Graham Burnett在《纽约客》中发表了一篇长篇文章,讨论了今天越来越热烈讨论的话题 - 人文学科是否受AI的影响?一开始,五月的销售表现出了清晰的前景:特朗普的残酷行为,即以高等美国教育和削减联邦补贴开始战争就像一场闹剧一样。在大学校园里,真正普遍存在的真正动物实际上是人造的katalinuhan。 AI令人尴尬的席卷整个美国大学,扩大了全文
但是,教授发现了一个奇怪的现象:没有人敢于他正在使用AI。
在一个班上,他问是否有人在班上有30名普林斯顿大学生的AI?没有人举手。
她热情地说:“我自己使用这些工具。我感觉很好,让我们来谈谈!”他仍然没有任何可以举手的人。
为什么会发生这种情况?
一个又一个课后的女孩向她解释说,几乎所有课程框架现在都包含一个警告:如果使用了chatgpt或类似的工具,则将报告给院长。
有些人甚至提到AI的主要网站将锁定在校园网络上。
此外,许多校园都概述了“反对”政策,这些政策禁止教师为学生分配AI-Sentrik作业。
尽管其余的校友和有影响力的人反对这一点,但他们显然很冷。
为什么这个人工智能的耻辱存在?
2024年7月,威利的调查显示,有45%的学生表示他们去年在课堂上使用了AI。但是同年的数字教育委员会调查显示,有86%的学生经常恩使用AI。
比较两个结果是否令人困惑?问题在于它可能在于“社会偏见”。
芝加哥大学商学院的研究人员审查了社会期望的偏见对AI使用调查的影响。
社会期望的偏见
社会期望的偏见是什么?
只是说,当回答问题时,人们总是会无意间留下良好的印象,而不是完全正确的回答。
当使用AI时,这也是如此,许多人认为使用AI似乎并不是很光荣。在学术界,有些人认为使用AI帮助写东西是一个骗局,而且毫无意义。如果学生承认使用AI,他们可能正在考虑没有独立完成作业,并且他们的学术能力不好。
因此,许多人无意承认即使使用AI也很慷慨,导致对AI的实际使用,而AI对Questio不满意纳尔。
为了阐明社会期望对AI使用统计数据的影响,两名学者进行了有趣的研究。
他们发现了来自中西部国家中型大学的一所中型大学的学生,并准备了礼品卡,以鼓励所有人认真回答。
这些学生来自各种各样的分数和专业,具有不同的性别和种族,他们的家庭收入也不同,这是非常有代表性的。
该调查主要集中于Chatgpt和Claude等标准AI工具。学生应描述他们对AI的使用,好像他们使用了AI,依赖水平,使用模型,甚至为此付费以及每周的天数等;他们还应该谈论周围的学生如何使用AI。
结果很棒!只有大约60%的学生说他们使用了AI工具。但是,当被问及他们的同龄人时,这一比例升至几乎90%。
40%的学生说他们不使用AI,大多数人说他们使用或不使用它。但是大多数学生Hink认为周围人们使用AI的水平是“中等”或“大”。
大多数人说他们每周仅使用AI 0-1天。但是他们认为同龄人会更频繁地使用它,并且每周4-5天使用的比例是最大的。
无论学生的性别或小学的性别如何,他本人与使用AI同伴之间的这种空间很普遍。
为什么有很大的空间?为了解决这个谜,研究人员进行了第二项研究。
他们重新注册了一群来自实用平台的本科生。首先,显示了第一项研究中发现的差距,学生可以研究间隔间隔的原因,这些间隔间隔是直接问题和免费答案。
直接问题的结果表明,大多数学生(79%)认为每个学生都没有足够的有关其AI使用的报告。
70%的学生选择与社会期望的偏见有关的答案,也就是说,学生不愿意承认他们正在使用AI,但他们可以说朋友与之一起使用解决任何问题。
免费答案的结果相似。
研究人员使用联合国支持性的AI开发对他们的答案进行了分类,发现58.1%的人可以将“由于社会期望的偏见,不足以报告自己的AI使用”,这比“高估其他AI人使用的使用”等其他类别。
这项研究的结果显示了许多被忽视的问题。当它瓦斯韦尔时,教育政策和课程设计的制定是基于不准确的AI使用数据。
这意味着学校可能会错过帮助学生理解和使用AI的机会。
Chatgpt理解我
普林斯顿普林斯顿(Princeton Princeton)说,外界,AI触发的惊人革命显然是发起的。
但是,在校园里,我们目睹了这一独特的情况:所有人都假装聋哑,并拒绝承认上个世纪意识形态世界上最重要的革命来了。
只要我们告诉学生他们不能使用AI,可以吗什么都没发生?
教授认为,是时候讨论AI对大学的真正意义,尤其是对人文学科的意义。
他提到了一个故事:两年的Agopassing,一位研究CS的学生在许多课程材料中培训了聊天机器人,其中有近100,000个单词,并与教授共享了聊天机器人。
尝试后,教导了AI注意。
可以说,该产品提供的分析和创造力的信息水平使AI奉献精神更加清晰。
此外,教授还提供了另一个例子。
他最近参加了对稀有手稿的学术采访,但内容非常隐藏。
教授感到困惑,于是他打开了Chatgpt,问了一个问题。
因此,AI提供了有关学者进行了基础研究以及如何解释这些图片的知名和未知内容的丰富信息。
可以说,可以说chatgpt给他比F中的演讲更好他的ront。
显然,AI几乎以这种方式超越了人们。
这位教授说,作为一个阅读和写书的人,他接受了几乎被谋杀的圣洁培训,并致力于诸如历史,哲学,艺术和文学等学科的学术研究,并从事这项工作超过30年。
但是现在,看着他办公室里的数千本学术书籍,他突然觉得他们是考古嘴唇。
为什么您需要查看这些大主题才能找到问题?此过程无效且过于过时。
现在,我们可以与AI系统进行连续连续的自定义通信,该系统在这些领域的任何主题中都能在这些领域中达到医生的水平,从认识论到芝麻症Miotics。我们可以实时构建想要的书。
以前,这些书中的任何书都需要数年或数十年的劳动,但直到现在,快速的单词才经过精心设计。
当然,问题不是我们是否可以写这样的书,但是 - 我们准备好阅读它们了吗?
在职业危机中,有30年的学术职业生涯
教授说,在过去的15年中,他对人类关注的实验室研究进行了固定的研究。
最近,他教授了一个新的课程“注意力与现代化:思想,媒体和感觉”。
本课程监视着从沙漠僧侣到资本主义时代的人类模式的转变。
为了教课程,他收集了超过900页的材料包,从奥古斯丁的供认到史诗般的分裂神经学分析。
Meroong甚至在18世纪的德国美学以及19世纪心理物理学实验室手册的摘录。
一时兴起,教授在Google的Free NotebookLM中提供了一个完整的900 PDF页面,预计将看到他在深入研究中的工作,他工作了十多年。
五分钟后,他听到了一对男人和女人的快乐,在32分钟内讨论了这门课程。
令人惊讶的是,他们真正Y探索了哲学家哲学家(第五世纪的南亚思想对佛陀关于“注意力主义”的思想)撰写的非常困难的论文,并正确处理了它。
教授认为可以称呼A。
此后,这些快乐的AIS开始阻碍Yu Chonggao的理论歌曲与“ Epic精神分裂症”有关,并且出现了许多模因。
教授对自己认为这是一个好学生的水平。
接下来,教授将这项任务任命为班级学生 - 与新的AI工具联系,探索关注的历史,编辑四页文本,然后提交。
在沙发上阅读这些成功已成为他教学生涯中最深刻的经历。
他似乎目睹了一个新生物的诞生,这是与同胞和对手的相遇,既不知道上帝,又是一个机械的阴影。
AI,不知道成为一个人的感觉
一位深入思考的女学生说话,说话对于机器,感觉就像现有的水,给她一种新的心理感觉。
“这与思考的纯洁有关。”
像许多年轻女性一样,她小心地追溯了她周围的人 - 他们的情绪,需求,难以想象的线索。
但是,当他与没有社会义务的AI交谈时,他不必容纳或取悦他人,让他更深入地探索自己的心。
最后,在所有班级聚集在一起之后,每个人都举手讨论经历。
一个高大的社交活跃男孩说:“我特别渴望自己。如果AI可以比我更快,更详细和系统地做任何事情,我不知道该怎么办。”
历史部的长者朱莉娅(Julia)说:“是的,我理解您的意思,我开始以与您相同的方式做出反应。”
“但是我在考虑康德的想法,即我们读到,分为两个部分:首先,您对巨大和难以理解的东西感到震惊,然后您意识到您的思想可以理解拥抱。您的C善良的内在生活是永恒的 - 它比您受伤的东西更大。 “
“这个人工智能像海啸一样具有强大的力量。但这不是我。它不能触及我的自我性感。不知道成为一个人或成为我的感觉。”
教室变得沉默。这是令人惊叹的 - 目前奇妙的辩证力量。
AI是否表示人文学科的终结?从某种意义上说,答案是肯定的。
但是,这也是礼物。
如果我们不再让学生阅读或写作,我们还能做什么?答案是给他们他们想做的工作。
生产力者学术工厂从来都不是人文学科的本质。
没有PEER回顾的学术成就数量,没有数据集,解决每个人面临的中心问题:如何生活?我应该怎么办?如何处理死亡?
这些问题的答案无法通过“建立知识”来解决。
最终,我们可以独自返回人文娱乐和教育的娱乐。我们可以回到始终存在的问题的核心 - 拥有自己的实际经验。
AI只能间接接近他们,但间接地与“这里”的含义并不是。生活,理解和选择仍然属于人。
参考:返回Sohu以查看更多
校园风采
>校区风采 美国各地的大学都在AI的耻辱之下!普林斯顿普林斯顿警告:AI肯定会杀死人文学科
2025-05-09