科技部发布负责任研究行为规范指引,明确生成式AI使用边界

  1. 科技部发布《负责任研究行为规范指引》,针对科技活动各环节制定行为规范。
  2. 明确规定不得使用生成式AI直接生成申报材料,不得将其列为成果共同完成人。
  3. 强调开展涉及伦理风险的科研活动必须进行科技伦理审查。
  4. 要求导师和项目负责人应保障学生、团队成员的合法权益。
  5. 自然科学基金委也发布类似文件,体现国家层面加强科研活动规范化建设的决心。

科技部监督司近日编制印发了《负责任研究行为规范指引(2023)》(下称《指引》)。该文件适用于科研机构、高等学校、医疗卫生机构、企业及其科研人员,覆盖了科技活动的主要环节和过程。《指引》提出了一系列规范要求,针对成果发布、信息技术使用、科技伦理等方面制定了具体指引,以推动负责任的科研行为。

《指引》明确指出,公布突破性研究成果和重大研究进展前,应经所在科研单位同意。未经科学验证或同行评议的研究成果,科研人员不得向公众传播。不得将已发表的论文或其中的数据、图片等再次发表,也不得将多篇已发表论文各取一部分拼凑出“新成果”后发表。

科技部规范科研活动,生成式AI不能直接生成申报材料

科技部发布负责任研究行为规范指引,明确生成式AI使用边界

随着信息技术和人工智能的快速发展,科学研究范式正在发生深刻变革,同时也带来了一些新问题。为规范科技活动中这些新技术的使用,《指引》明确提出了一些要求:不得使用生成式人工智能直接生成申报材料,不得将生成式人工智能列为成果共同完成人,不得直接使用未经核实的由生成式人工智能生成的参考文献等。这为生成式AI的使用划出了明确的边界。

《指引》还强调,科技伦理是开展科技活动应当遵循的价值理念和行为规范。涉及人体试验、动物实验或者可能带来伦理风险的科研活动,都应按规定进行科技伦理审查。紧急状态的科技活动也不能回避科技伦理审查或降低标准。

在学术交流方面,《指引》要求研究生导师和项目负责人应确保有足够的时间和精力指导学生,提供研究资源支持,坚持学术民主,不得在成果署名、知识产权归属等方面侵占学生和团队成员的合法权益。

与此同时,国家自然科学基金委员会也发布了类似文件,同样明确了生成式人工智能使用的规范和限制,以及对评审专家、学生权益的保护等要求。这体现了国家层面加强科研活动规范化建设的决心。


AI Tool Agent:  https://orbitmoonalpha.com/shop/ai-tool-agent/

AI Tool Drawsth: https://orbitmoonalpha.com/shop/ai-tool-drawsth/

Shopping Cart
Scroll to Top