>
2006年多层神经网络出现以前,机器学习都只处于初级阶段, 需要人工提取特征。而2006年后, 它进入到“深度学习”的大时代。人类不监督、半监督, 机器自己分析特征、独立思考。给一万张猫的图片, 说“这都是猫”, 它就懂了,再给一张它没见过的,问“是不是猫”, 它会说是。人们给它正确答案的数据集, 它便可以进行学习, “看”的越多会的越多,不断优化自身能力。因此,“人工智能”定义十分清晰,区别是真·人工智能还是噱头只需要看它有没有模仿人脑。
然而,对每一层都在提取什么特征,以及机器为何要做这些事情、为什么能得出结论,人类无法解释。根据输出,有些提取简单易懂,比如勾勒边缘、模糊图片、突出重点、锐化图片……可是,在很多时候,人类完全get不到!看着某层下来以后图片所变成的样子,只能叫一声“什么鬼!”有时人类只能提出几个特征,ai分出好几百层!
它给了人空前的可能,也给了人无尽的困惑。
就像人类无法摸清大脑的工作原理一样,他们同样无法摸清ai的工作原理。
训练ai这种方式为何能行?它是如何学的?信息存在哪里?为何下此判断?不知道。
它好像在玄幻境界。码工时常觉得自己正在养蛊,贼刺激,给蛊虫喂个这个、喂个那个,一掀盖子,嚯,出来一个超厉害的东东!
有人说,让ai向人解释一个东西,相当于让人向狗解释一个东西,听着so sad。
人类历史充分表明,只有一个决策可以解释、分析,人才可以了解它的优点缺陷,评估风险,知道它在多大程度能被信赖。
很多专家说过“必须质疑人工智能为何做出一个决定……”“难道,无人汽车每回出事,企业都说不知原因、ai让它这么干的?”
何况,不幸的是,如同大脑会出错,ai也会出错。
于是问题来了:我们能信任ai吗?我们能在多大程度上相信ai?我们能在生死攸关时信任ai吗?
当然,也有学者表示:“它能做到就足够了!”“大脑一直为你工作,你也一直都信任它,即使并不知道它是如何工作的。”
目前,各国科学家正致力解开黑箱,政府、行业协会也对此
本章未完,请点击下一页继续阅读! 第3页 / 共6页