AI研究人员说,当算法出错时,我们需要更多的力量来反击

  |   0 评论   |   470 浏览

    政府和私营公司正在快速部署人工智能系统,但公众缺乏在失败时保持这些系统负责的工具。这是AI Now发布的一份新报告中的主要结论之一,AI Now是微软和谷歌等科技公司以及纽约大学附属公司员工的家。

    该报告研究了人工智能和算法系统的社会挑战,在研究人员称之为“问责制差距”时,该技术被整合到“跨核心社会领域”。他们提出了十项建议,包括要求政府对面部识别进行监管(微软总裁布拉德·史密斯(Brad Smith )[本周]也提倡的东西)和人工智能产品的“真相广告”法律,这样公司就不能简单地用技术的声誉来交易他们的服务。

    大型科技公司已经发现自己陷入人工智能淘金热,从招聘到医疗保健以及出售服务等众多市场都有所收费。但是,正如AI现在的联合创始人,谷歌开放研究小组的负责人梅雷迪思惠特克告诉_The Verge,_ _“_他们对利益和效用的许多主张并没有得到公众可获得的科学证据的支持。”

    根据[泄露的内部文件],惠特克提供了IBM Watson系统的例子,该系统在Memorial Sloan Kettering癌症中心的试验诊断期间给出了“不安全和不正确的治疗建议” 。惠特克说:“他们的营销部门对他们的技术的近乎神奇的特性做出的声明从未经过同行评审的研究证实。”

    2018年是人工智能的“级联丑闻”

    AI Now的报告的作者说,这一事件只是2018年政府和大型科技公司部署的人工智能和算法系统的一系列“级联丑闻”之一。其他一些涉及Facebook [帮助促进]缅甸[种族灭绝的]指控,以及启示作为[Project Maven]和[Cambridge Analytica丑闻的]一部分,谷歌正在帮助军队为无人机构建AI工具。

    在所有这些案例中,硅谷最有价值的公司都引起了公众的强烈抗议和内部异议。这一年,谷歌员工[放弃]了公司的五角大楼合同,微软员工[迫使公司]停止与移民和海关执法局(ICE)合作,以及谷歌,优步,eBay和Airbnb的[员工罢工],抗议涉及性骚扰的问题。

    惠特克表示,这些抗议活动得到劳动力联盟和AI Now自身研究倡议的支持,已成为“公众责任的意外和可喜的力量”。

    _今年,人们普遍反对使用人工智能,包括谷歌参与建立无人机监控技术。 _

    摄影:John Moore / Getty Images

    但报告很清楚:公众需要更多。在政府采用自动决策系统(ADS)时,公民正义的危险尤为明显。这些包括用于计算监禁和分配医疗援助的算法。通常,报告的作者说,软件被引入这些领域,目的是降低成本和提高效率。但结果往往是系统做出无法解释或上诉的决策。

    AI Now的报告引用了一些例子,包括[Tammy Dobbs],一位患有脑瘫的阿肯色州居民,她的医疗补助提供的家庭护理每周减少56小时至32小时,没有任何解释。法律援助成功起诉了阿肯色州,并且算法分配制度被认为是违宪的。

    惠特克和其他同事AI现任联合创始人,微软研究员凯特克劳福德表示,将ADS整合到政府服务中已经超过了我们审计这些系统的能力。但是,他们说,可以采取具体步骤来解决这个问题。其中包括要求向政府出售服务的技术供应商放弃商业秘密保护,从而使研究人员能够更好地检查他们的算法。

    “如果我们想要公共责任,我们必须能够审计这项技术。”

    克劳福德说:“你必须能够说,‘你已经从医疗补助中被切断了,这就是原因’,你不能用黑盒子系统做到这一点。” “如果我们想要公共责任,我们必须能够审计这项技术。”

    另一个需要立即采取行动的领域,即配对,是使用面部识别和影响识别。前者越来越多地被警察部队,中国,美国和欧洲使用。例如,亚马逊的Rekognition软件已由[奥兰多和华盛顿县]的警察部署,尽管测试表明该软件在不同种族中的表现可能不同。在使用Rekognition [识别国会议员]的测试中,非白人成员的错误率为39%,而白人成员的错误率仅为5%。对于影响识别,公司声称技术可以扫描某人的脸并阅读他们的性格甚至意图,AI Now的作者说公司经常兜售伪科学。

    尽管存在这些挑战,但Whittaker和Crawford表示,2018年已经表明,当人工智能问责制和偏见问题暴露出来时,技术员工,立法者和公众都愿意行动而不是默许。

    关于由硅谷最大的公司孵化的算法丑闻,克劳福德说:“他们’快速行动,打破事物’的意识形态打破了许多对我们来说非常珍贵的事情,现在我们必须开始考虑公共利益“。

    Whittaker说:“你所看到的是,人们正在意识到网络 - 乌托邦技术修辞与这些技术在日常生活中所使用的现实之间的矛盾。”

    >