欢迎大家来到IT世界,在知识的湖畔探索吧!
仔细研究一下机器学习中的” f”一词,以及为什么不能忽略它!
我知道您很想知道这个” f”实际上是什么。 我们很快就知道了。 我可以立即告诉您的一件事是,无论您对机器学习的熟悉程度如何,理解” f”一词都会帮助您理解大多数机器学习的作用。
在此之前,让我们进行角色扮演。 您是一名数据科学家,而您的初创公司已责成您与市场营销同事合作,以改善公司产品的销售。 您必须就如何调整三种不同媒体(电视,广播和报纸)的广告预算向”营销人员”提供建议。
看一下过去的数据(图1),很明显,您在电视,广播和报纸等每个媒体上投放多少广告会影响产品的销售 。
作为数据科学家,您想了解和解释这三个因素如何共同影响销售。 换句话说,我们希望根据电视,广播和报纸预算来对销售进行建模。 这就是我们难以捉摸的” f”功能。
” f”是什么意思?
简而言之,您可以将f视为需要输入X并产生输出Y的事物。一个很好的类似示例是洗衣机。 您将脏衣服(X)放入洗衣机(f)中,得到被洗的衣服(Y)。
在产品销售和广告媒体预算的情况下,函数f将分别以X1,X2,X3表示的电视,广播和报纸预算作为输入,将退货Y作为输出。 (我们将X1,X2和X3以组合形式表示为矢量X)
剧透警报! 实际上,许多机器学习只是想出一个好f,它可以获取一些输入数据并返回可靠的输出。
为什么我们要这个f?
我们需要找到一个好的f的主要原因有3个:
· 有了一个好的f,我们可以输入所有3种媒体的预算并预测销售量。
· 我们可以了解哪些预测因素(例如电视,广播,报纸预算)对影响Y至关重要。我们可能会发现,花钱买报纸实际上是一种浪费,因为报纸广告并不能大大提高销售量。
· 我们也许能够理解每个预测变量如何影响Y。例如,我们可能会发现,投资电视广告的效率是投资报纸广告的5倍。
我怎么找到这个f?
在回答这个问题之前,我们需要问自己以下问题:
在广阔,华丽的宇宙中是否存在一些完美的f?
好吧,也许不是”完美”的f,但是有一个理想/最优的f。 如果我们看一下图2,我们会发现一些奇怪的地方-对于X轴(报纸预算)上的某一点,在某些情况下似乎有多个对应的Y(销售)值。 例如,图2中绘制的数据中,对于x = 6.4,Y轴上有两个对应的值:y = 11.9和y = 17.3。
因此,理想函数可以简单地是对应于特定x的所有y值的平均值。 换句话说,对于上图:
用更多的”数学”术语,所有X上所有Y的平均值称为期望值E(Y)。 因此,将任何X的所有Y值取平均值的过程就是我们的”理想”函数。 我们的理想f可以用以下方式表示:
好的…。但是为什么我们需要机器学习?
可悲的是,因为我们生活在”现实世界”中。
在”现实世界”中,我们不能使用上面讨论的平均思想可靠地估计Y所需的所有数据。 即使对于销售广告数据,您也可以看到在图2中,对于x = 77.5,x = 95,x = 110等,没有相应的Y值。
解决数据丢失问题的一种有效方法是使用邻里关系。
这意味着,我们可以取在x = 77.5相邻点出现的所有Y值的平均值,而不是严格地取x的平均值Y = 77.5。 因此,可能从x = 75取到x = 80(参见图3中的蓝色垂直线)。
我们的定义和表示法有一些变化,以反映以下思想:我们不再局限于在给定点X = x上精确地出现的Y值,而是查看在X = x附近的Y值。
这种方法有两个主要问题:
· 当除了报纸预算外还有多个预测变量(例如:电视,广播,Facebook广告,Google广告…)。 在这种情况下,问题扩展到多个维度(不仅限于x和y轴),并且越来越难以定义我们宝贵的”邻居”。 (此问题的名称很糟糕:维度诅咒)
· 当相邻区域中没有数据时会发生什么? 例如,在图3中,没有从x = 115到x = 145以及以后的数据。
机器学习助您一臂之力!
为了不使f受上述两个问题的约束,我们转向机器学习来估计f。 虽然有各种各样的机器学习模型可供选择,但让我们考虑一个简单而有效的模型-线性回归模型。 在线性回归模型中,将输入X1(电视预算),X2(广播预算),X3(报纸预算)分别乘以w1,w2和w3,然后相加得出Y。
在上式中,w0,w1,w2,w3是参数,其值是通过训练模型并将其拟合到数据上而获知的。 换句话说,这些参数可以通过”查看”数据并反复进行猜测而改变,这些猜测随着时间的推移会越来越好,直到我们获得足够好的f。
结论
估计f时应选择哪种模型,如何执行程序以及如何判断f的”足够好”是机器学习从业人员在处理特定问题时进行反复调查的非平凡问题。 机器学习从业人员通常依靠经验,领域知识和经验证据来尝试回答这些问题。 尽管如此,无论问题的背景和性质如何,找到良好的f都是使用机器学习进行预测,推理和解决问题的基础。
参考/灵感
· Gareth James, Daniela Witten, Trevor Hastie, Robert Tibshirani. An Introduction to Statistical Learning : with Applications in R. New York :Springer, 2013.
· Hastie, Trevor, Robert Tibshirani, and J. H Friedman. The Elements of Statistical Learning: Data Mining, Inference, and Prediction. 2nd ed. New York: Springer, 2009.
作者:Aishwarya Prabhat
deephub翻译组:孟翔杰
免责声明:本站所有文章内容,图片,视频等均是来源于用户投稿和互联网及文摘转载整编而成,不代表本站观点,不承担相关法律责任。其著作权各归其原作者或其出版社所有。如发现本站有涉嫌抄袭侵权/违法违规的内容,侵犯到您的权益,请在线联系站长,一经查实,本站将立刻删除。 本文来自网络,若有侵权,请联系删除,如若转载,请注明出处:https://itzsg.com/40079.html