1. XenForo 1.5.14 中文版——支持中文搜索!现已发布!查看详情
  2. Xenforo 爱好者讨论群:215909318 XenForo专区

科技 AI制药技术还能“造毒”?6小时内就能产生40000杀手分子

本帖由 漂亮的石头2022-03-21 发布。版面名称:新闻聚焦

  1. 漂亮的石头

    漂亮的石头 版主 管理成员

    注册:
    2012-02-10
    帖子:
    488,204
    赞:
    47
    据英国金融时报3月19日报道,美国制药公司Collaborations Pharmaceuticals在探索中发现AI(人工智能)制药技术具有双重性。如果“反用”(flip)机器学习模型,原本用来生成治疗药物的AI模型就会生成有毒的物质。

    [​IMG]

    在Collaborations Pharmaceuticals公司团队反向使用机器模型后,新模型在6小时内就产生40000杀手分子(potential killer molecules),而且AI生成的化合物毒性比已知生化武器的毒性都高。如果有人利用这项技术制造致命生化武器,后果将不堪设想。

    一、AI模型6小时内可生成40000个潜在杀手分子

    AI制药的规则很简单:有疗效的活动被算法奖励,有毒的则被惩罚,这样就可以得到有效的药物。但是如果改变这一规则,奖励有毒行为,即“反用”AI,会得到什么呢?

    Collaborations Pharmaceutical公司位于美国北卡罗来纳州,主要通过机器学习确定罕见病及易忽视病的药物。该公司通过反向使用机器学习模型,来探究AI生成分子算法的负面作用。

    [​IMG]

    ▲制药工作人员(来源:Collaborations Pharmaceutical)

    在AI生成分子的规则被反用后,AI接受了一组含有杀虫剂和环境毒素的初始分子的训练,开始计算如何调整能让所生成分子变得更致命。分析过这种方法所生成的分子后,科学家得到了惊人的结果。在服务器启动6小时内,新的AI模型就可以生成40000个潜在的杀手分子,包括VX(一种被禁止的神经毒剂)。

    修改后的AI模型还会生成其他化学战剂(用于战争的有极大毒性的化学物质)。而且这些化学战剂没有一个在训练数据中。其中一些化合物的毒性甚至比目前的生化武器毒性都高。

    二、AI是杀手分子生成器?

    当Collaborations Pharmaceutical的创始人Sean Ekins在一场会议中分享过AI制药模型的研究结果时,据伦敦大学国王学院科学与安全研究中心的联合主任Filippa Lentzos分享,当时听众们十分震惊。Lentzos还谈道,尽管AI制药的可能性是多样的,但是在生命科学领域,滥用技术是个可能会导致严重后果的问题。

    Lentzos和Ekins合作研究了机器学习,这一研究在本月登上了顶级学术期刊Nature的子刊《Nature Machine Intelligence》。《人工智能驱动的药物发现的双重应用》论文指出,科学家们通过用机器学习,能够把无害的生成模型从一个有用的医学工具变成了杀手分子的生成器。AI模型生成的一些虚拟分子并不在已知化学品观察清单,与现有的杀手分子也没什么相似。这表明AI制药能创造出全新类别的、致命的生化武器。

    [​IMG]

    ▲论文链接https://www.nature.com/articles/s42256-022-00465-9

    从事计算机和化学方面的技术人员,其知识和技术水平远超爱好者等业余人士。若这些专业技术人员有恶意,那他们所做的事危害会更大。在AI制药过程中,AI生成的分子仅是虚拟的药物配方,其制造通常需要外包给其他提供商业合成的公司,而这些公司受到的监管和监督都要更少。

    目前,Collaborations Pharmaceutical已经删除了相关实验数据,并计划限制反向AI制药技术的使用。化学领域的《海牙伦理准则》(The Hague Ethical Guidelines),提倡化学科学中的负责任行为。Lentzos建议为从事以AI为重点的药物研发人员,制定类似《海牙伦理准则》的行为准则。

    结语:AI制药技术或有副作用

    近年来,AI在生物医学领域的应用发展飞速,AI制药更是引起了国内外的资本热潮。随着图像识别、深度学习、神经网络等关键技术的突破,AI在生物医药领域从科研到应用都取得了巨大进展。

    在技术飞速发展的同时,可能的安全隐患并未得到解决。本次,Collaborations Pharmaceutical公司的研究,体现了AI制药应用过程的双重性。这也说明了利用AI制药技术快速发展的同时要意识到其潜在的危机。
     
正在加载...