非监督学习最强攻略
2)竞争:神经元计算每一个输入模式各自的判别函数值,并宣布具有最小判别函数值的特定神经元为胜利者,每个神经元j的判别函数为: 3)合作:获胜的神经元决定了兴奋神经元拓扑邻域的空间位置,确定了激活节点后,更新临近的节点。 4)适应:适当调整相关兴奋神经元的连接权重,使得获胜神经元对相似输入模式的后续应用的响应增强。 5)迭代第2-4步,直到特征映射趋于稳定。 等到最后迭代结束之后,每个样本所激活的神经元就是它对应的类别。 SOM与K-Mean算法的区别: 1)K-Mean算法需要事先确定好K值,而SOM不需要; 2)K-Mean算法为每个输入数据找到一个最相似的类,只更新这个类的参数;而SOM则会更新临近的节点,所以,K-Mean算法受噪声影响比较大,SOM则可能准确性方面会差一些; 3)SOM的可视化很好,有优雅的拓扑关系图。 如何训练参数 1)设定输出层神经元的数量:如果不清楚,可以尽可能设定较多的节点数。 2)设计输出节点的排列:对于不同的问题,事先选择好模式。 3)初始化权值。 4)设计拓扑邻域:拓扑邻域的设计原则是使得邻域不断缩小,从而输出平面上相邻神经元对应的权向量既有区别又有相当的相似度,从而保证获胜节点对某一类模式产生最大响应时,其邻域节点也产生较大响应。 5)设计学习率:学习率是一个递减函数,可以结合拓扑邻域一起考虑。在训练开始时,可以选择较大的值,这样子比较快下降,后面慢慢减少。 聚类算法的评估指标 聚类算法不像有监督学习有一个target,更多的都是没有目标的,所以评估指标也是不一样的,下面介绍几种常用的评估指标: 1)轮廓系数(Silhouette Coefficient) silhouette 是一个衡量一个结点与它属聚类相较于其它聚类的相似程度,取值范围-1到1,值越大表明这个结点更匹配其属聚类而不与相邻的聚类匹配。如果大多数结点都有很高的silhouette value,那么聚类适当。若许多点都有低或者负的值,说明分类过多或者过少。 定义 轮廓系数结合了凝聚度和分离度,其计算步骤如下: 对于第i个对象,计算它到所属簇中所有其他对象的平均距离,记为ai(体现凝聚度) 对于第i个对象和不包含该对象的任意簇,记为bi(体现分离度) 第i个对象的轮廓系数为si=(bi-ai)/max(ai,bi) 2)Calinski-Harabaz指数 如果标签是未知的,sklearn.metrics.calinski_harabaz_score则可以使用Calinski-Harabaz指数来评估模型,其中较高的Calinski-Harabaz分数与具有更好定义的聚类的模型相关。 优点:
缺点:
3)Adjusted Rand index(调整后兰德指数) 该指标是衡量两个赋值相似度的函数,忽略排列组合 (编辑:西安站长网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |