阅读记录

30、最好的专业[2/2页]

杠精随笔 灯巷曲直

设置 ×

  • 阅读主题
  • 字体大小A-默认A+
  • 字体颜色
门编译原理,据说比修仙还难。
      ——————
      AI的缺陷大家都知道,就是AI替代人类的担忧,很多人觉得AI可以轻易控制,确定没有bug就行,就像出事的波音737max一样,把那个有漏洞的程序修改好就行了。其实没有那么简单,在此,我试着把这一忧患具体化一下。
      要说清楚,就必须先说清楚AI【人工智能】跟日常提到的【智能】有什么区别。日常说到的智能,比如听歌识曲智能软件和图片搜索引擎,更多是使用搜索算法。这类算法再复杂,也只是人类传输给它它照做而已,没有叛逆的可能。
      而人工智能是机器自主学习,也就是所谓的机器学习(AI一个分支),它是这样的操作:假如训练目的是让机器能识别猫,那么不是人类指令机器识别尖耳朵等,而是给它许多许多图片,让它自己训练自己,最后总结出规律,获得识别猫的技能。
      大部分时候,这种训练是成功的,而风险就在于人类给了它太多自主。机器就是机器,不走人的套路,它的自我训练常有反人类认知的现象出现。
      举例:有人丢给机器一个训练集,让它自己训练自己区分出哈士奇和狼。换成作为人类的你,你会怎样训练自己?看尾巴?看眼睛?看姿态?看眼神?是的,这是我们人类的套路。
      但它是机器,它没有套路,所以它直接选择通过图片中动物身处的环境识别:如果环境是野外深山密林,就识别为狼,如果是室内环境和人工环境,就识别为狗。一般非常准确,如果人类不去深究,就会被机器蒙蔽,以为它真正拥有了一般意义上识别狼和狗的能力,然后投入使用,再然后可能就会发生严重事故,因为这里区分狼和狗只是打个简单的比方。
      再比如,原图是熊猫,机器也已经训练得可以识别出熊猫,识别后评估自己准确率为56%(机器自己的评估),这时,如果人为加上一层色彩斑斓的像素点作为噪音,机器就会将图片识别为猿,并评估自己的准确率为99%。而人眼根本觉察不出与原图有任何区别,当然依旧可以轻松准确地将其识别为熊猫。
      所以,我对自动驾驶还是持保留意见的。
      人类当然可以通过细致检查发现问题,但问题是,很多时候机器的问题远超人类意料之外。人的错误人可以预判,比如老师可以轻松预判哪道题会有最多人丢分、学生会犯什么样的错误,机器的错误则毫无“人性”,时不常剑走偏锋,就需要人的大力监督审视。

30、最好的专业[2/2页]