特征降维方法"/>
Kmeans特征降维方法
文章目录
- 一、特征降维方法
- 二、数据集介绍
- 三、聚类问题及实现方法
- 四、代码
一、特征降维方法
- 提取主要特征,忽略次要特征【PCA降维】
- 合并相似特征【特征合并】
PCA主成分提取其实还是会忽略掉一些信息,有时候感觉聚类后的结果并不理想,所以如下采用特征合并的方式降维。
二、数据集介绍
- 用到的数据集:
各国发展水平统计信息↓
- 字段解释:
country : 国名
child_mort : 每1000个婴儿的5年死亡率
exports : 人均商品和服务出口,以人均国内生产总值的百分比给出
health : 人均卫生支出总额,以人均国内生产总值的百分比给出
imports : 人均商品和服务进口,以人均国内生产总值的百分比给出
Income : 人均净收入
Inflation : 国内生产总值年增长率的测算(通货膨胀率)
life_expec : 如果按照目前的死亡率模式,新生儿的平均寿命是多少年
total_fer : 如果目前的年龄生育率保持不变,每个妇女生育的孩子数量
gdpp : 人均国内生产总值,计算方法是国内生产总值除以总人口 - 任务类型:
对所有国家发展水平聚类,确定待援助国家,涵盖算法:K-Means、DBSCAN、Hierarchical
三、聚类问题及实现方法
- 该问题主要是根据各国自身特征确定一份待援助国家列表
- 具体做法是:
- 特征标准化
- 合并降维
- kmeans聚类
- 找出待援助国家
四、代码
import timeimport pandas as pd
import matplotlib.pyplot as plt
import seaborn as sns
pd.options.display.float_format = '{:.2f}'.format
import warnings
warnings.filterwarnings('ignore')from sklearn.cluster import KMeans
from sklearn.metrics import silhouette_score
from sklearn.preprocessing import MinMaxScaler, StandardScaler
from mpl_toolkits.mplot3d import Axes3D
import numpy as np
import plotly.express as px
import plotly
# pip install kaleido # 绘制世界地图时的依赖包class ShowClusterDistribution(object):@classmethoddef kmeans(cls, df: pd.DataFrame, data_columns: list, class_column: str, centroids: np.array):'''绘制聚类分布图支持2维和3维数据:param df: 特征缩放后的训练数据和标签组成的df:param data_columns: 训练数据的列名数组:param class_column: 标签列名:param centroids: 质心点坐标:return:'''# 质心颜色centroid_color = ['black']# 各个聚类颜色clusters_color = ['red', 'green', 'blue', 'orange', 'yellow']clusters = set(df[class_column].tolist())dimension = len(data_columns) # 数据维度# 二维训练数据if dimension == 2:for idx, cluster in enumerate(clusters):df_class = df[df['Class'] == cluster]x = np.array(df_class[data_columns[0]])y = np.array(df_class[data_columns[1]])plt.scatter(x, y, s=100, c=clusters_color[idx], label=f'Cluster{idx + 1}')plt.xlabel(data_columns[0])plt.ylabel(data_columns[1])plt.scatter(centroids[:, 0], centroids[:, 1], s=100, c=centroid_color, label='Centroids')plt.title('Clusters Distribution')plt.legend()plt.show()# 三维训练数据elif dimension == 3:fig = plt.figure()# ax = Axes3D(fig)ax = Axes3D(fig, auto_add_to_figure=False)fig.add_axes(ax)# 质心标记点ax.scatter(centroids[:, 0], centroids[:, 1], centroids[:, 2], marker="X", color=centroid_color)# 三类数据绘制for idx, cluster in enumerate(clusters):df_class = df[df['Class'] == cluster]x = np.array(df_class[data_columns[0]])y = np.array(df_class[data_columns[1]])z = np.array(df_class[data_columns[2]])ax.scatter(x, y, z, c=clusters_color[idx])plt.title('Clusters Distribution')ax.set_xlabel(data_columns[0])ax.set_ylabel(data_columns[1])ax.set_zlabel(data_columns[2])plt.show()def show_elbow_and_silhouette_score(data_values):'''1.计算Elbow Method2.计算Silhouette Score Method3.绘图:return:'''sse = {}sil = []kmax = 10fig = plt.subplots(nrows=1, ncols=2, figsize=(15, 5))# Elbow Method :plt.subplot(1, 2, 1)for k in range(1, 10):kmeans = KMeans(n_clusters=k, max_iter=1000).fit(data_values)sse[k] = kmeans.inertia_ # Inertia: Sum of distances of samples to their closest cluster centersns.lineplot(x=list(sse.keys()), y=list(sse.values()))plt.title('Elbow Method')plt.xlabel("k : Number of cluster")plt.ylabel("Sum of Squared Error")plt.grid()# Silhouette Score Methodplt.subplot(1, 2, 2)for k in range(2, kmax + 1):kmeans = KMeans(n_clusters=k).fit(data_values)labels = kmeans.labels_sil.append(silhouette_score(data_values, labels, metric='euclidean'))sns.lineplot(x=range(2, kmax + 1), y=sil)plt.title('Silhouette Score Method')plt.xlabel("k : Number of cluster")plt.ylabel("Silhouette Score")plt.grid()plt.show()if __name__ == '__main__':# 读取数据data = pd.read_csv('./data/Country-data.csv')print(data.head())# country child_mort exports ... life_expec total_fer gdpp# 0 Afghanistan 90.20 10.00 ... 56.20 5.82 553# 1 Albania 16.60 28.00 ... 76.30 1.65 4090# 2 Algeria 27.30 38.40 ... 76.50 2.89 4460# 3 Angola 119.00 62.30 ... 60.10 6.16 3530# 4 Antigua and Barbuda 10.30 45.50 ... 76.80 2.13 12200# 查看每个特征的分布km_columns = ['child_mort', 'health', 'life_expec', 'total_fer', 'imports', 'exports', 'income', 'inflation', 'gdpp']fig, ax = plt.subplots(nrows=3, ncols=3, figsize=(10, 5))for i in range(len(km_columns)):plt.subplot(3, 3, i + 1)sns.histplot(data[km_columns[i]], color='#FF781F')# title = 'Distribution : ' + numerical_features[i]# plt.title(title)plt.show()# 【图像见文章结尾处 图01】# 数据基本为高斯分布# 数据降维# 将较为细分的领域数据合并# health <== child_mort, health, life_expec, total_fer# trade <== imports, exports# finance <== income, inflation, gdpp# 最终由9个维度降至3维# 相关数据都满足高斯分布,先标准化,再合并数据ss = StandardScaler(with_mean=0, with_std=1)df = pd.DataFrame()data_columns = ['Health', 'Trade', 'Finance']class_column = 'Class'health_array = ss.fit_transform(data[['child_mort', 'health', 'life_expec', 'total_fer']])health_array[:, 0] = -health_array[:, 0] # 婴儿死亡率造成负影响health_array[:, 3] = -health_array[:, 3] # 妇女生育数量造成负影响df[data_columns[0]] = health_array.sum(axis=1)trade_arry = ss.fit_transform(data[['imports', 'exports']])trade_arry[:, 0] = -trade_arry[:, 0] # 进口造成负影响df[data_columns[1]] = trade_arry.sum(axis=1)finance_arry = ss.fit_transform(data[['income', 'inflation', 'gdpp']])finance_arry[:, 1] = -finance_arry[:, 1] # 通货膨胀造成负影响df[data_columns[2]] = finance_arry.sum(axis=1)df.insert(loc=0, value=list(data['country']), column='Country')print(df.head())# Country Health Trade Finance# 0 Afghanistan 15.21 2.23 1.01# 1 Albania 12.50 3.04 1.17# 2 Algeria 12.74 2.71 2.44# 3 Angola 14.86 4.06 2.63# 4 Antigua and Barbuda 12.53 4.11 1.80# 数据归一化mms = MinMaxScaler() # Normalizationfor data_column in data_columns:df[data_column] = mms.fit_transform(df[[data_column]])print(df.head())# Country Health Trade Finance# 0 Afghanistan 0.57 0.15 0.07# 1 Albania 0.21 0.21 0.09# 2 Algeria 0.24 0.19 0.21# 3 Angola 0.52 0.28 0.22# 4 Antigua and Barbuda 0.21 0.28 0.15# 取出归一化之后的各项特征张量data_values = df.drop(columns=['Country']).values # Feature Combination : Health - Trade - Financeprint(data_values)# [[0.6257404 0.13961443 0.07981958]# [0.12745148 0.19990106 0.08875623]# [0.18248518 0.18662177 0.2128085 ]# [0.66138147 0.28305774 0.23694587]# ... ... ...# [0.17006974 0.40338563 0.12143593]# [0.39745068 0.17024776 0.22963179]# [0.52690852 0.18140481 0.13499709]]# 聚类并绘制 elbow 和 silhouette_score 方法的图像show_elbow_and_silhouette_score(data_values)# 【图像见文章结尾处 图02】# 聚类为2时较为合适# 训练model = KMeans(n_clusters=4, max_iter=1000)model.fit(data_values)cluster = model.cluster_centers_centroids = np.array(cluster)labels = model.labels_df[class_column] = labels# 绘制聚类结果ShowClusterDistribution.kmeans(df=df, data_columns=data_columns, class_column=class_column, centroids=centroids)# 【图像见文章结尾处 图03】# 绘制世界地图df['Class'].loc[df['Class'] == 0] = 'Class 1'df['Class'].loc[df['Class'] == 1] = 'Class 2'df['Class'].loc[df['Class'] == 2] = 'Class 3'df['Class'].loc[df['Class'] == 3] = 'Class 4'fig = px.choropleth(df[['Country', 'Class']],locationmode='country names',locations='Country',title='Needed Help Per Country (World)',color=df['Class'],color_discrete_map={'Class 1': 'Red','Class 2': 'Green','Class 3': 'Yellow','Class 4': 'Blue'})fig.update_geos(fitbounds="locations", visible=True)fig.update_layout(legend_title_text='Labels', legend_title_side='top', title_pad_l=260, title_y=0.86)fig.show(engine='kaleido')plotly.offline.plot(fig)# 【图像见文章结尾处 图04】
|
|
|
图02,Elbow Method 显示 K 值为 2、3、4、5 都可以,Silhouette Score Method 显示 K 值为 2、4、7、10 较合适,综合一下可以选择 2、4,但是因为聚类为 2 的话会产生较多的待援助国家,因此最终选择 K=4 |
| |
| |
|
|
红色>绿色>蓝色>黄色 |
更多推荐
Kmeans特征降维方法
发布评论