删除应用程序的限制并改善规则指南
发布时间:2025-07-13 11:59
这位报纸记者Xue Yan说:“现在,使用人工智能技术意味着编辑失去了独立角色来判断文章的价值并形成“ AI依赖”。 “”中国科学技术协会的年度会议,在7月10日,7月10日,7月10日在7月10日举行的2025年2025年中国科学与技术发展论坛杂志的2025年数字技术技术论坛,2025年的2025年数字技术技术论坛,该论坛于7月10日举行,该论坛于7月10日在7月10日举行。应对学术出版的深入干预提出的新挑战。目前,大型人工智能建模技术的快速发展,尤其是在理解和处理生成人工智能中文本的进步,并深入地集成在写作领域和科学的出版领域ND Technology杂志,大大提高了学术编辑服务的有效性。小洪说,CNKI每天需要处理超过30,000个文档,并且该机器的处理,放置和标签的90%以上是由机器智能完成的。但是,当AI深入知识生产的中心联系时,存在潜在风险会引起学术界普遍关注的风险。以审查过程为例,人工智能技术可以快速搜索和分析大型文学和网络知识,总结和分析信息,并向审阅者提供宝贵的参考意见。但是,如果将人工智能技术深入融合到审查中,它也可能代表出版前手稿逃脱的风险。为此,小洪提议建立对数据安全和局部矢量库的完整测量。这会帮助您的数据不要离开国家,也不保证安全,也将帮助外部专家调用数据以进行审查。 “对人工智能的过度依赖可能会挑战学术创新,”中国科学与技术杂志科学技术研究协会主席张·蒂姆波(Zhang Tiempo)说,学术研究的本质是一项创新的工作,需要深入思考。人工智能产生的内容主要基于历史语料库,并且具有算法偏见。不足的用途不仅经历了研究创新,而且还会提高诸如学术完整性和学术道德等风险。目前,该行业尚未达成关于在出版,编辑和控制门的学术标准中应用人工智能的局限性的共识,这已成为监管其应用的重要问题,并保证了学术Innovat离子。 “关键是制定明确的规则。”张·蒂姆波(Zhang Tiempo)说,目前,国家工业行业和编辑机构的一些协会正在制定有关人工智能在学术出版物中应用的相关准则和法规,例如“在学术出版物2.0中使用AIGC的指南”。但是,详细信息应该更加改进,例如清楚地“可以使用哪些场景”和“使用”。这些特定规则的实施不能与有效的技术监督指标分开。作为国家学术资源的国家平台之一,近年来,中国的创业知识基础设施一直在积极调查学术成就测试。目前,CNKI创建了一个学术大数据系统,涵盖了许多有关英语文学和英语英文报价的数据,并正在开发用于检测人工智能的生成工具,用于使用学校和Scientif。IC研究机构。 “我们的目标是为学校和机构提供客观的测试工具。”小洪说,如果阈值适合特定的重复率,并且必须根据自己的学术标准和特定情况来确定每个单位的相似性关系。