什么是变异系数法


矿工最近做项目的时候,遇到一个需求,甲方巴巴要求对一个双层结构的指标体系进行评分,结果

一顿Google猛如虎,

有用结果不过五。

大刀阔斧瞎捣鼓,

自研算法出权数。

路过壮士请留步,

动动手指点关注。

在统计理论和实践中,权重是表明各个评价指标(或者评价项目)重要性的权数,表示各个评价指标在总体中所起的不同作用。在具体业务场景中,最常见的评价指标类型分为:单层指标体系和双层指标体系。

单层指标体系

双层指标体系

针对两类指标体系本文提供以下三大类五种赋权算法进行指标赋权。

主观赋权法:g_one

客观赋权法:变异系数法、熵权法、主成分分析法

集成赋权法:乘法集成

对于各个算法具体原理,可自己Google和百度一下,这里只简单介绍一下算法本质,主观赋权法顾名思义就是人为拍脑袋进行赋权,最早的算法是德尔菲法又名专家法,简单粗暴直接拍脑袋定权重,后期又出现层次分析法和g_one法,后者是前者的优化和改进版本,也是本文所用的方法,这两类算法的原理是相较于对指标进行整体比较,人更容易做出两两比较的理性判断,所以“专家”只需要拍定每两个指标之间的相对重要性,就可推导得到整体指标体系中各个指标的相对重要性。

客观赋权法,则是根据数据反映的信息量,进行赋权,信息量越大的数据其对应指标权重越大,根据信息量的衡量方式不同就衍生出了不同的客观赋权方法:熵权法利用信息熵来衡量数据反映的信息量,变异系数法则是用变异系数反映信息量,主成分分析法则是利用各个指标对主成分的贡献度作为衡量指标。

集成赋权法:将主观赋权与客观赋权得到的权重进行集成,根据计算方法不同,可分为:加法集成、乘法集成等

理论讲完,下面开始撸码。

# g1赋权法
 def g_one(r_list):
        r_list.append(1)
        r_list.reverse()
        wei_list = np.cumprod(r_list)
        w_list = list(wei_list/sum(wei_list))
        w_list.reverse()
        return w_list

# 熵权法
def entropy_weight(x):
        x = x.apply(lambda x: ((x - np.min(x)) / (np.max(x) - np.min(x))))
        index_list = x.columns.tolist()
        rows, cols = x.shape
        k = 1.0 / np.log(rows)
        x = np.array(x)
        lnf = [[None] * cols for i in range(rows)]
        lnf = np.array(lnf)
        for i in range(0, rows):
            for j in range(0, cols):
                if x[i][j] == 0:
                    item = 0.0
                else:
                    p = x[i][j] / x.sum(axis=0)[j]
                    item = np.log(p) * p * (-k)
                lnf[i][j] = item
        lnf = pd.DataFrame(lnf)
        new_data = lnf
        redund = 1 - new_data.sum(axis=0)
        w = [[None] * 1 for i in range(cols)]
        for j in range(0, cols):
            wj = redund[j] / sum(redund)
            w[j] = wj 
        return w

#  变异系数法
 def var_weight(data):
        x = data
        index_list = data.columns.tolist()
        x = x.apply(lambda x: ((x - np.min(x)) / (np.max(x) - np.min(x))))
        x_mean = x.mean(axis=0)
        x_std = x.std(ddof=0)
        x_cof_var = x_std/x_mean
        sum_x_cof_var = x_cof_var.sum()
        x_wi = x_cof_var/sum_x_cof_var
        return x_wi
 # 主成分分析法
 from sklearn.decomposition import PCA
 def pca_weight(data):
        index_list = data.columns.tolist()
        x = np.array(data)
        pca = PCA(n_components=2)
        pca.fit(x)
        component = pca.components_
        variance_ratio = pca.explained_variance_ratio_
        component = abs(component.T)
        for i in range(0,2):
            component[:, i] = variance_ratio[i]*component[:, i]
        a = pd.DataFrame(component)
        b = a.sum(axis=1)
        c = b/b.sum(axis=0)
        c = c.to_frame()
        return c

免责声明
    以上文章转载自互联网,文章内容仅供参考,不构成建议,也不代表百科学社赞同其观点。如有侵权请联系755934052@qq.com,提供原文链接地址以及资料原创证明,本站将会立即删除

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请通知我们,一经查实,本站将立刻删除。