假AI的崛起:科技公司如何悄悄地让人做机器人的工作?
发布时间:2018-07-24 报送来源:硅发布
建立一个由人工智能驱动的服务很难。事实上,一些创业公司已经发现:与其让机器表现得像人类一样,不如让人类表现得像机器人一样,后者可能更便宜也更容易。
    “用人来完成,你就可以跳过一系列技术和业务发展方面的挑战。显然,它不能规模化,但可以让你建立一些东西,并在早期跳过难点。”Read Mead首席执行官乔治·克伯格说,他遇到了很多“伪人工智能”。
    他认为:这些伪AI,本质上是用人工充当AI的原型。
    本周,《华尔街日报》的一篇文章把这个事情公之于众了,文章突出了数百个第三方应用开发者,这些开发者得到了谷歌的允许,访问人们的收件箱。以坐落在圣何塞的公司Edison Software为例,这个公司的人工智能工程师,通过数百个用户的个人电邮信息(用户身份经过修改)来改进一个“智能回复”的功能。在其隐私政策中,这个公司没有提及将有人类查看用户的电子邮件。
    这不是《华尔街日报》写的第一个类似故事。
    2008年,一家将语音邮件转换成短信的公司SpCuxx被指责,其使用了海外呼叫中心的人,而不是机器来完成这项工作。
    2016年,彭博社也强调了一种情况:有些人每天花12个小时,来装作自己是像X.ai和Clara这样日历行程安排服务的聊天机器人。这项工作让人头脑麻木,人类员工表示,他们期待着被机器人取代。
    2017年,企业开销管理应用ExpPyFy承认:该公司一直使用人工来誊写至少一部分该公司称其为“智能扫描技术”处理的收据。收据的扫描被寄给亚马逊众包劳工工具器械“土耳其人”,在那里,工资很低的工人阅读并誊写这些扫描件。
    “我想知道这些智能扫描的用户是否知道我们输入了他们的收据,” 罗谢尔拉普朗特表示,他是一名“土耳其人”,在Twitter上支持零工经济的工作者。“我正在看某人的Uber收据,上面有他们的全名、上车和下车地址。”
    某些情况下,人类被用来训练人工智能系统,并提高其准确性。一家名为Scale的公司,提供非常多人力工作者,为自动驾驶汽车和其他人工智能驱动的系统,提供培训数据。
    例如Scale公司的工人,将观察摄像机或传感器传输的信息流,并标出汽车、行人和自行车。有了足够的这种人类校准,人工智能将学会自己识别这些物体。
    在其他情况下,公司在自己真的有能力做到这一点前一直说谎,告诉投资者和用户,他们已经开发一个可规模化的人工智能技术,但同时,秘密地依靠人类智能。
    心理学家及心理健康维护(聊天机器人WoeBOT的创始人艾莉森.达西,将其描述为“绿野仙踪设计技术”。
    “很多时候,当谈到AI时,幕后是人而不是算法,”她补充说,建立一个好的人工智能系统需要大量数据,有时设计师们想先知道,是否有足够服务需求,再进行投资。
    她说,这种做法在像WoeBOT这样的心理维护服务的情况下是不合适的:“作为心理学家,我们受道德规范的指引。不欺骗人,是这些伦理原则之一。”
    研究表明:当人们认为自己是在与机器交谈,而不是与人交谈时,往往会透露更多信息。这和一个人因为心理健康而寻求帮助的污名有关。
    南加州大学一个团队对一位名叫艾莉的虚拟治疗师进行了测试,发现:和被告知是有人操纵机器的情况比,创伤后应激障碍的退伍军人在知道艾莉是人工智能系统时,更容易泄露症状。
    另一些人则认为:在自己服务如何运作方面,公司应始终保持透明。
    “我不喜欢,”拉普兰特说,他在一家假装提供AI但实际上雇佣了人的公司:“对我来说,这不诚实又具欺骗性。而且我感觉我们被推到幕后了,我不喜欢雇我劳动的公司,一转身就对自己的客户说谎。”
    这种伦理困境,也出现在那些伪装成人类的AI系统领域。
    最近一个例子是Google Duplex。这是一个机器人助手,能完成神秘逼真的电话呼叫,帮人预约和预订。在最初激烈的公众反应后,谷歌表示自己的AI会向与它交流的人显露自己的身份。
    达西说:虽然在餐馆预订一张桌子,看起来是种低风险互动,但如果错误使用这样的技术,比如如果你能用逼真的声音模拟名人或者政治家的声音,这会发生什么?“人们对AI已经非常恐惧,而在缺乏透明度时,这对沟通没有帮助。”达西说。