作为一个经常向非专业人士解释机器学习的人,我整理了以下十点内容作为对机器学习的一些解释说明。
机器学习并不像天花乱坠的宣传那样:通过向适当的学习算法提供适当的训练数据,你可以解决无数的难题。把它称之为AI吧,如果这有助于销售你的AI系统的话。但你要知道,AI只是一个时髦的词,这只代表了人们对它的期望而已。
机器学习算法特别是深度学习的进步,有很多令人兴奋的地方。但数据是使机器学习成为可能的关键因素。机器学习可以没有复杂的算法,但不能没有好的数据。
机器学习根据数据中的模式来训练模型,探索由参数定义的可能模型的空间。如果参数空间太大,就会对训练数据过度拟合,并训练出一个不能使自己一般化的模型。如果要对此做详细解释的话,需要进行更多的数学计算,而你应该把这一点当作为一个准则,让你的模型尽可能得简单。
俗话说“你往计算机输入一堆垃圾,输出的一定也是一堆垃圾数据”,虽然这句话的出现早于机器学习,但这恰恰是机器学习存在的关键限制。机器学习只能发现训练数据中存在的模式。对于监督机器学习任务来说(例如分类),你需要一个健壮的、正确标记的、丰富的训练数据集。
oi正如基金招股说明书警告的那样“过去的表现不能保证未来的结果”。机器学习也应该发一个类似的警告申明:它仅能基于与训练数据相同分布的数据才能工作。因此,需警惕训练数据和生产数据之间的偏差,并经常性地重复训练模型,这样才能保证其不会过时。
在机器学习技术天花乱坠的宣传下,你可能会认为机器学习所做的主要是选择和调整算法。但现实却是平淡无奇的:你大部分的时间和精力都将花在数据清理和特征工程上,也就是将原始特征转换为能更好地代表数据信号的特征。
由于机器学习在很多领域都得到了应用与发展,因此深度学习也被宣传得天花乱坠。此外,深度学习促使一些传统上通过特征工程进行的工作变得自动化,特别是对于图像和视频数据。但深度学习并不是灵丹妙药。没有现成的可以让你使用,你仍然需要投入大量的精力去清理和转换数据。
向NRA道歉,“机器学习算法不会杀人,是人在杀人”。当机器学习系统出现故障时,很少是因为机器学习算法存在问题。更有可能的情况是人为的错误被引入了到训练数据中,从而产生偏差或其他的系统错误。我们应始终持怀疑的态度,并采用适用于软件工程学的方式来对待机器学习。
在机器学习的许多应用中,你今天所做的决策会影响明天收集的训练数据。一旦机器学习系统将偏差融入到模型中,它可以会继续生成偏差增强了的新训练数据。 而且,一些偏差可能会毁掉人们的生活。请负责任一点:不要创造自我实现的预言。
相当多的人似乎是从科幻电影中得到有关人造智能的概念的。我们应该从科幻小说中得到启发,但并不能这么傻,把小说误认为是现实。从有意识的邪恶人类到无意识的有偏差的机器学习模型,有太多的现实和危险需要担心。所以你可以不用担心SkyNet和“superintelligence”(译者注:SkyNet和superintelligence分别是科幻电影和科幻小说)。
机器学习涉及到的内容远远超过我上面提到的十点说明。希望这些介绍性的内容对非专业人士有用。
转载自 全球人工智能 大数据地盘