• 全国 [切换]
  • 二维码
    易展网

    手机WAP版

    手机也能找商机,信息同步6大终端平台!

    微信小程序

    微信公众号

    当前位置: 首页 » 行业新闻 » 热点新闻 » 正文

    大语言模型对学术研究的机遇与挑战

    放大字体  缩小字体 发布日期:2025-03-30 15:22:41   浏览次数:3  发布人:94d0****  IP:124.223.189***  评论:0
    导读

    2005年,雷·库兹韦尔提出人工智能“奇点理论”,认为在不久的将来,机器将通过人工智能进行自我完善,从而超越人类,开启新的时代。如今,技术力量正以指数级速度迅速向外扩充,人类正处于时代变化的浪尖上。作为第三代人工智能的重要成果,以DeepSeek和ChatGPT为代表的大语言模型,加速推动着学术生态转型临界点到来,给现代社会带来巨大的机遇和挑战。重构学术生态推动创新与突破DeepSeek与Chat

    nload="this.removeAttribute('width'); this.removeAttribute('height'); this.removeAttribute('onload');" />

    2005年,雷·库兹韦尔提出人工智能“奇点理论”,认为在不久的将来,机器将通过人工智能进行自我完善,从而超越人类,开启新的时代。如今,技术力量正以指数级速度迅速向外扩充,人类正处于时代变化的浪尖上。作为第三代人工智能的重要成果,以DeepSeek和ChatGPT为代表的大语言模型,加速推动着学术生态转型临界点到来,给现代社会带来巨大的机遇和挑战。

    重构学术生态

    推动创新与突破

    DeepSeek与ChatGPT是基于深度学习的自然语言处理(NLP)技术的应用,其核心在于通过训练海量文本数据,构建能够模拟人类语言表达和理解能力的神经网络模型,由此实现良好的上下文理解和逻辑推理能力,完成符合用户需求的语言任务。随着算力增强和数据规模扩大,以DeepSeek为代表的大语言模型在语义理解、常识推理、逻辑推理等早期人工智能无法攻克的复杂问题上,已经表现出接近或超过普通人的水平。其中,DeepSeek-R1创造性地通过大规模强化学习技术,得到强大的强推理与深度思考能力,实现推理能力的跨任务普遍化,“让整个人工智能领域再次迎来了类似于2023年初ChatGPT的时刻”。

    这场智能革命显然将极大提高科研效率,推动学术创新与突破。过去,大量传统科研工作依赖研究者的个体经验和劳动密集型操作,依赖学者自身的资料搜集、整理与解释能力。在建立专业数据库的前提下,DeepSeek强大的节点数据处理能力和多模态推理能力能够辅助学者提高资料检索效率和质量,并根据作者对文献资料的理解和设定的学术指向,做文献综合性处理和创新论述,从而解放基础劳动束缚,使学者在人机交互中,更专注于科研创新,提出新问题,挖掘新理论。随着各领域专业数据库的建立与完善,DeepSeek等人工智能将推动科研创作流程从人工创作向人机协作转型,从根本上改变知识生产路径,极大提高学术研究效率。学者在基础工作劳动效率与质量得到提高的同时,能够将更多时间投入学术创新,在人机智能交互中推动学术进入全面创新的新纪元。以DeepSeek在医药产学研的应用为例,当专业医疗病例诊断和治疗数据库建立后, DeepSeek可以根据患者症状迅速获取医疗方案和优秀治疗病例,普通病症可以立即获得治疗方案;复杂病症可以迅速获取以往病例优秀治疗方案,从而为医生提供参考,辅助医生做出综合判断和创新治疗方案。这将有力遏制误判概率,提高治疗效率。同时,人工智能技术正为医药研发领域带来高效率创新突破。

    大语言模型

    对教育实践形成适应性挑战

    生成式人工智能在重塑科研范式的同时,也给教育实践带来适应性挑战,或将引发学术界对教师教学能力、学生培养方向以及学科建设战略布局的重新审视。笔者认为,数智技术可以分担部分基础教学压力,同时也对教师的启发教育能力提出了更高要求。在传统教学模式中,授课教师的核心能力主要体现在知识讲授、课堂管理和师生沟通等方面,这一标准如今渐显落后。大语言模型能够通过辅助课程设计、生成个性化习题等方式赋能教师教学,通过提供个性化学习资源、实时反馈与动态评估鼓励学生学习,因此可以解放基础教育工作者部分压力。同时,尽管教师职责无可取代,但教师角色需从知识传授者向学习引导者转变。这一转型要求教师具备数字化思维与创新能力:教师不仅需要掌握与人工智能协同工作的技能,还需在教学中引导、规范学生正确使用人工智能工具。其核心任务在于以创新能力培养为导向,培养学生的信息辨别能力、批判性思维能力以及问题提出能力。

    此外,学科建设战略布局调整也将成为教育系统未来的核心议题。在人文社科领域,人工智能识别文本的能力可能改变文本阐释学、人类行为学乃至人类社会学的研究方式。在理工科领域,人工智能的数据分析功能可能重塑科学研究的流程。麻省理工学院已经利用大语言模型开发名为LLMatDesign的框架,以求实现自主材料发现。总之,我们认为,学科建设应该紧跟科技发展步伐,主动迎接人工智能技术变革,在关注学科基础理论进步的同时,注重培养并选拔能够应用人工智能技术的复合型人才。

    大语言模型问题

    引发学术伦理争议

    在科研范式上,大语言模型将对传统知识生产机制和学术评价标准造成冲击。在知识生产层面,辅助学者提升科研效率的同时,大语言模型的影响也并非全然正面:模型的推理能力越强,越可能将并无实际关系的数据潜在联系在一起,导致生成回答中专有概念张冠李戴,客观规律拗曲作直。一旦数据污染过多,大语言模型将给出错误结果。因此,在通用人工智能的高精度学科专业数据库尚未普遍建成的当下,相较传统知识路径,学者为验证人工智能生成内容所耗费的精力或许会有增无减。所以,笔者认为,在积极拥抱人工智能辅助工具的同时,认定人工智能可以完全代替人类学术工作,还为时尚早。在很长一段时间内,即便是基础性学术工作也离不开学者自身能动参与,更何况更需要人为主导的学术创新性研究与突破。

    2023年全球期刊撤稿数量超过万篇,有大量撤稿论文涉及隐蔽使用人工智能生成证明过程。新技术时代的学术不端现象已经引发学术界关注,廖先慧总结其具体表现为“基于算法生成的代写与洗稿、基于人工智能幻觉的伪造与篡改,以及基于技术工具的内容版权争议”。虽然学术检测系统、AIGC查重系统也在不断升级,人工智能生成文本检测技术与生成技术间的动态博弈无疑已挑战学术诚信体系的稳定性。

    尽管有研究指出“当前的人工智能仍处于弱人工智能阶段,不具备自我意识和责任承担能力”,但其已经展现出参与论文撰写与修改的实际功能。这一技术特征使得传统署名规范在新的学术写作场景下面临挑战。可以说,生成式人工智能的普及正在模糊传统意义上的“作者身份”边界。如何在研究成果中合理区分人类智慧与机器生成内容的贡献比例?如何界定人工智能生成内容的知识产权归属等问题,均需要学界进行深入探讨。

    学术研究的本质是建立在人类自主劳动基础上的知识创造活动,强调人的主体性、原创性、批判性和创新性。大语言模型能够显著提升知识生产效率,作为辅助性工具,理应得到认可和推广,但人工智能无法替代研究者的核心思维活动。因此,极端地否定或推崇人工智能技术都不可取。笔者认为,在生成式人工智能时代,当代学人应在技术赋能与学术自主性间取得平衡,以建立新的学术伦理规范。

    总之,人工智能的广泛应用为学术界带来了前所未有的机遇,在推动创新广阔前景的同时也加剧了传统科研范式、教学系统和学术伦理的发展危机。不过,只有正视这些挑战,采取积极措施加以应对,我们才能在技术进步与学术责任之间找到平衡,推动学术研究创新发展。

    人类正站在文明演进临界点,人工智能不仅是技术工具,更是协助你我重塑知识边疆的“认知伙伴”。以DeepSeek与ChatGPT为代表的大语言模型,正在催化一场堪比印刷术、启蒙运动的范式革命,它要求学术界以开放姿态拥抱技术变革,在批判性对话中构建人机共生的新科研生态,最终推动人类文明向更高维度跃迁。

    面对这场变革,学术界需要以战略主动性取代技术被动性。我们呼吁建立合理的人工智能工具使用伦理:既要善用AI突破认知边界,又需保持人文精神的批判锋芒;既追求计算效率,更守护知识生产的价值。唯有如此,才能避免工具异化,使人工智能真正成为文明突破的“加速器”。笔者相信,当人类智慧与机器智能在互动中共振时,我们将见证一个崭新的学术时代,文明的火炬将由碳基生命与硅基智慧共同传递,照亮超越想象的未来。

    作者系南京大学历史学院博士研究生;南京大学历史学院教授

    来源:中国社会科学报

    责任编辑:郭飞

    新媒体编辑:张雨楠

    如需交流可联系我们


     
    (文/匿名(若涉版权问题请联系我们核实发布者) / 非法信息举报 / 删稿)
    打赏
    免责声明
    • 
    本文为昵称为 94d0**** 发布的作品,本文仅代表发布者个人观点,本站未对其内容进行核实,请读者仅做参考,如若文中涉及有违公德、触犯法律的内容,一经发现,立即删除,发布者需自行承担相应责任。涉及到版权或其他问题,请及时联系我们154208694@qq.com删除,我们积极做(权利人与发布者之间的调停者)中立处理。郑重说明:不 违规举报 视为放弃权利,本站不承担任何责任!
    有个别老鼠屎以营利为目的遇到侵权情况但不联系本站或自己发布违规信息然后直接向本站索取高额赔偿等情况,本站一概以诈骗报警处理,曾经有1例诈骗分子已经绳之以法,本站本着公平公正的原则,若遇 违规举报 我们100%在3个工作日内处理!
    0相关评论
     

    (c)2008-现在 yixu.net All Rights Reserved.