原理很简单,初始分20箱或更多,先确保每箱中都含有0,1标签,对不包含0,1标签的箱向前合并,计算各箱卡方值,对卡方值最小的箱向后合并,代码如下
import pandas as pd import numpy as np import scipy from scipy import stats def chi_bin(DF,var,target,binnum=5,maxcut=20): ''' DF:data var:variable target:target / label binnum: the number of bins output maxcut: initial bins number ''' data=DF[[var,target]] #equifrequent cut the var into maxcut bins data["cut"],breaks=pd.qcut(data[var],q=maxcut,duplicates="drop",retbins=True) #count 1,0 in each bin count_1=data.loc[data[target]==1].groupby("cut")[target].count() count_0=data.loc[data[target]==0].groupby("cut")[target].count() #get bins value: min,max,count 0,count 1 bins_value=[*zip(breaks[:maxcut-1],breaks[1:],count_0,count_1)] #define woe def woe_value(bins_value): df_woe=pd.DataFrame(bins_value) df_woe.columns=["min","max","count_0","count_1"] df_woe["total"]=df_woe.count_1+df_woe.count_0 df_woe["bad_rate"]=df_woe.count_1/df_woe.total df_woe["woe"]=np.log((df_woe.count_0/df_woe.count_0.sum())/(df_woe.count_1/df_woe.count_1.sum())) return df_woe #define iv def iv_value(df_woe): rate=(df_woe.count_0/df_woe.count_0.sum())-(df_woe.count_1/df_woe.count_1.sum()) iv=np.sum(rate * df_woe.woe) return iv #make sure every bin contain 1 and 0 ##first bin merge backwards for i in range(len(bins_value)): if 0 in bins_value[0][2:]: bins_value[0:2]=[( bins_value[0][0], bins_value[1][1], bins_value[0][2]+bins_value[1][2], bins_value[0][3]+bins_value[1][3])] continue ##bins merge forwards if 0 in bins_value[i][2:]: bins_value[i-1:i+1]=[( bins_value[i-1][0], bins_value[i][1], bins_value[i-1][2]+bins_value[i][2], bins_value[i-1][3]+bins_value[i][3])] break else: break #calculate chi-square merge the minimum chisquare while len(bins_value)>binnum: chi_squares=[] for i in range(len(bins_value)-1): a=bins_value[i][2:] b=bins_value[i+1][2:] chi_square=scipy.stats.chi2_contingency([a,b])[0] chi_squares.append(chi_square) #merge the minimum chisquare backwards i = chi_squares.index(min(chi_squares)) bins_value[i:i+2]=[( bins_value[i][0], bins_value[i+1][1], bins_value[i][2]+bins_value[i+1][2], bins_value[i][3]+bins_value[i+1][3])] df_woe=woe_value(bins_value) #print bin number and iv print("箱数:{},iv:{:.6f}".format(len(bins_value),iv_value(df_woe))) #return bins and woe information return woe_value(bins_value)
以下是效果:
初始分成10箱,目标为3箱
chi_bin(data,"age","SeriousDlqin2yrs",binnum=3,maxcut=10)
箱数:8,iv:0.184862
箱数:7,iv:0.184128
箱数:6,iv:0.179518
箱数:5,iv:0.176980
箱数:4,iv:0.172406
箱数:3,iv:0.160015
min max count_0 count_1 total bad_rate woe
0 0.0 52.0 70293 7077 77370 0.091470 -0.266233
1 52.0 61.0 29318 1774 31092 0.057056 0.242909
2 61.0 72.0 26332 865 27197 0.031805 0.853755
免责声明:本站文章均来自网站采集或用户投稿,网站不提供任何软件下载或自行开发的软件!
如有用户或公司发现本站内容信息存在侵权行为,请邮件告知! 858582#qq.com
白云城资源网 Copyright www.dyhadc.com
暂无“python 基于卡方值分箱算法的实现示例”评论...
RTX 5090要首发 性能要翻倍!三星展示GDDR7显存
三星在GTC上展示了专为下一代游戏GPU设计的GDDR7内存。
首次推出的GDDR7内存模块密度为16GB,每个模块容量为2GB。其速度预设为32 Gbps(PAM3),但也可以降至28 Gbps,以提高产量和初始阶段的整体性能和成本效益。
据三星表示,GDDR7内存的能效将提高20%,同时工作电压仅为1.1V,低于标准的1.2V。通过采用更新的封装材料和优化的电路设计,使得在高速运行时的发热量降低,GDDR7的热阻比GDDR6降低了70%。
更新日志
2024年10月05日
2024年10月05日
- 群星《前途海量 电影原声专辑》[FLAC/分轨][227.78MB]
- 张信哲.1992-知道新曲与精丫巨石】【WAV+CUE】
- 王翠玲.1995-ANGEL【新艺宝】【WAV+CUE】
- 景冈山.1996-我的眼里只有你【大地唱片】【WAV+CUE】
- 群星《八戒 电影原声带》[320K/MP3][188.97MB]
- 群星《我的阿勒泰 影视原声带》[320K/MP3][139.47MB]
- 纪钧瀚《胎教古典音乐 钢琴与大提琴的沉浸时光》[320K/MP3][148.91MB]
- 刘雅丽.2001-丽花皇后·EMI精选王【EMI百代】【FLAC分轨】
- 齐秦.1994-黄金十年1981-1990CHINA.TOUR.LIVE精丫上华】【WAV+CUE】
- 群星.2008-本色·百代音乐人创作专辑【EMI百代】【WAV+CUE】
- 群星.2001-同步过冬AVCD【环球】【WAV+CUE】
- 群星.2020-同步过冬2020冀待晴空【环球】【WAV+CUE】
- 沈雁.1986-四季(2012梦田复刻版)【白云唱片】【WAV+CUE】
- 纪钧瀚《胎教古典音乐 钢琴与大提琴的沉浸时光》[FLAC/分轨][257.88MB]
- 《国语老歌 怀旧篇 3CD》[WAV/分轨][1.6GB]