更多课程 选择中心


Python培训

400-111-8989

学python做真正的人工智能工程师,而不是做伪人工智能!

  • 发布:钱利鹏
  • 来源:theguardian
  • 时间:2018-07-12 18:09

进行python培训学习的我们,都有一个简单而美好的梦想,那就是希望走在时代前列,成为一名年薪百万的优秀工程师,更希望有机会用自己的双手和智慧创造出一个可以改变世界的AI技术!但需要提醒你的是千万不要让你的梦想被伪AI限制了!

利用“奥兹国魔法师技术”,一些公司向投资人隐瞒了其对人力的依赖。(译注:在人机交互领域,奥兹国魔法师实验是让测试人员与计算机系统进行交互,测试人员以为计算机是自动响应的,但实际上是由看不见的人操作或部分操作的。来源: 维基百科,词条Wizard of Oz experiment)

一些公司使用人工来训练AI系统;另外一些公司则暗中依赖人力却声称拥有可升级的AI技术。

开发一项由人工智能驱动的服务非常困难。事实上,因为太难,一些初创公司已经使用了更便宜、更简单的方法,即让人类像机器人一样工作,而不是让机器像人类一样工作。

“使用人力完成一项工作可以让你跳过大量的技术难题。显然,它不会升级,但它可以让你在开展业务的初期跳过困难的工作,构建一些东西,”ReadMe公司的首席执行官格雷戈里·科贝格说。他说他遇到了很多“伪AI”。

“这基本上是用人力作为人工智能的原型。”他说。

本周《华尔街日报》的一篇文章(链接:#/articles/techs-dirty-secret-the-app-developers-sifting-through-your-gmail-1530544442)揭露了这一做法,文章曝光了数百家第三方应用程序开发商,谷歌允许他们访问人们的收件箱。

加利福尼亚州圣何塞市爱迪生软件公司内,人工智能工程师正通过浏览用户的个人电子邮件 (隐匿了他们的身份)来改进“智能回复”功能。该公司在其隐私政策中并没有提及会使用人工查看用户的电子邮件。

《华尔街日报》文章中曝光的第三方公司还不是第一批这么做的。 2008年,一家将语音邮件转换为文字信息的公司,Spinvox公司被指控在海外呼叫中心使用人工而不是机器来完成其工作。

2016年,彭博社报道了一些公司雇佣工人每天工作12小时,假装聊天机器人提供日程安排服务,这些公司包括#和Clara等。因为这项工作太单调,工人们表示他们期待被机器人取代。

2017年,开发业务费用管理应用程序的Expensify公司承认,他们一直在用人工来转录部分本应由“智能扫描技术”处理的收据。扫描件被发布到亚马逊的Mechanical Turk劳务众包平台上,然后由低薪工人阅读和转录这些收据。

“我想知道Expensify公司SmartScan的用户是否知道MTurk平台上的工人会看到他们的收据。”罗谢尔·拉普兰说道,他是推特上的零工经济的倡导者。他说:“我正在查看某人的Uber收据,上面有他们的全名、上车和下车的地点。”

即使是在人工智能上投入巨资的Facebook,其Messenger中的虚拟助手M也依赖人类的工作。

一些公司使用人工训练AI系统以提高其准确性。一家名为Scale的公司雇佣了大量工人,他们专门为汽车自动驾驶和其他人工智能系统提供训练数据。工人们查看摄像头或传感器捕捉到的图片,在上面标注汽车、行人和骑车人。通过大量的人工校准,AI学会自己识别这些物体。

另外一些公司假装拥有了AI技术,告诉投资者和用户他们已经开发了可升级的AI技术,同时秘密地依赖人力工作。

学python做真正的人工智能工程师,而不是做伪人工智能!

心理健康聊天机器人Woebot公司的创始人、心理学家艾莉森•达西将此描述为“奥兹国魔法师技术”。

她说:“你模拟了某种东西未来的终极体验。但要真正达到人工智能水平需要大量的时间,现在一些服务的背后不是算法,而是一个真实的人。”开发一个优秀的人工智能系统需要大量的数据,有时一些公司在投资一项服务之前会用这种投机的方法来确认是否有足够多的需求。

她说,这种方法不适合像Woebot这样提供心理服务的公司。

“作为心理学家,我们遵守道德准则。不欺骗人是非常重要的道德原则之一。“

研究表明,当人们与一台机器而不是一个人交谈时,他们倾向于透露更多信息,因为一个人寻求心理健康支持时常常有耻辱感。

来自南加州大学的一个团队用一个名为Ellie的虚拟治疗师对此进行了测试。他们发现,患有创伤后应激障碍的退伍军人,更有可能在知道Ellie是一个人工智能系统时吐露他们的症状,而不是被告知有人在操作机器时。

另外一些人则认为一家公司应始终让运营方式保持透明。

“我不喜欢这样”,拉普兰在谈及那些假装提供人工智能服务但实际雇用人类的公司时说,“我感觉这不诚实,是一种欺骗,我不想使用这样的服务。”

“从工人角度考虑,感觉他们被推到了幕后。我不喜欢一家公司使用了我付出的劳动之后,向客户撒谎,不告诉他们真相。”

AI系统模拟人类也产生了类似的道德窘境。例如Google的 Duplex,这是一个机器人助手,用于电话预约和预定服务,它可以通过一些迟疑的语气词如“嗯”、“呃”等,制作出令人毛骨悚然的逼真电话效果。

在经过最初强烈反对之后,谷歌表示,它的人工智能语音将与人类语音明显区分开来。

“在他们的演示版本中,柔和的对话感觉有点欺骗性。”达西说。尽管预订餐馆座位看起来是一种没什么风险的互动,但如果同样的技术掌握在坏人手中会更有欺骗性。

例如,如果你能制作出真人电话语音,模拟名人或政客的声音,会发生什么?

达西说:“人们对人工智能已经有了很大的恐惧,当缺乏透明度时,就不能真正促进人机之间的对话。”

感谢您的阅读,我们应该联合起来,一起抵制伪AI,因为他将限制我们的技术,限制我们的进步,你说呢?更多人工智能的相关资讯,尽在达内python培训,敬请关注!

免责声明:内容和图片源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。

预约申请免费试听课

填写下面表单即可预约申请免费试听! 怕学不会?助教全程陪读,随时解惑!担心就业?一地学习,可全国推荐就业!

上一篇:python新鲜事|22岁印度大学生击败6000人年薪百万入职谷歌AI
下一篇:学python进入AI领域,挑战高薪不再是梦!

达内python培训机构就业喜报,用事实告诉你月薪过万不是梦!

python资讯|招聘AI人才开出4000万年薪,真的值吗?

你想自学python语言,因为它是黑客语言?

未来有两种人,会Python的和不懂Python的小学生?

  • 扫码领取资料

    回复关键字:视频资料

    免费领取 达内课程视频学习资料

Copyright © 2023 Tedu.cn All Rights Reserved 京ICP备08000853号-56 京公网安备 11010802029508号 达内时代科技集团有限公司 版权所有

选择城市和中心
黑龙江省

吉林省

河北省

湖南省

贵州省

云南省

广西省

海南省