
课程咨询: 400-996-5531 / 投诉建议: 400-111-8989
认真做教育 专心促就业
随着互联网的不断发展,越来越多的人都在通过自学或者参加达内培训来学习互联网软件开发行业的相关技术知识,而本文我们就通过案例分析来简单了解一下,人工智能降维学习概念解析。
根据凡事抓主要矛盾的原则,对举足轻重的属性要给予足够的重视,无关紧要的属性则可以忽略不计,这在机器学习中就体现为降维的操作。
主成分分析是一种主要的降维方法,它利用正交变换将一组可能存在相关性的变量转换成一组线性无关的变量,这些线性无关的变量就是主成分。
主成分分析遵循如下的步骤:
数据规范化:对m个样本的相同属性值求出算术平均数,再用原始数据减去平均数,得到规范化后的数据;
协方差矩阵计算:对规范化后的新样本计算不同属性之间的协方差矩阵,如果每个样本有n个属性,得到的协方差矩阵就是n维方阵;
特征值分解:求解协方差矩阵的特征值和特征向量,并将特征向量归一化为单位向量;
降维处理:将特征值按照降序排序,保留其中大的k个,再将其对应的k个特征向量分别作为列向量组成特征向量矩阵;
数据投影:将减去均值后的m×n维数据矩阵和由k个特征向量组成的n×k维特征向量矩阵相乘,得到的m×k维矩阵就是原始数据的投影。
主成分分析中降维的实现并不是简单地在原始特征中选择一些保留,而是利用原始特征之间的相关性重新构造出新的特征。
为什么简单的数学运算能够带来良好的效果呢?
从线性空间的角度理解,主成分分析可以看成将正交空间中的样本点以小误差映射到一个超平面上。如果这样的超平面存在,那它应该具备以下的性质:一方面,不同样本点在这个超平面上的投影要尽可能地分散;另一方面,所有样本点到这个超平面的距离都应该尽可能小。
【免责声明】:本内容转载于网络,转载目的在于传递信息。文章内容为作者个人意见,本平台对文中陈述、观点保持中立,不对所包含内容的准确性、可靠性与完整性提供形式地保证。请读者仅作参考。更多内容请加danei0707学习了解。欢迎关注“达内在线”参与分销,赚更多好礼。