本文实例为大家分享了python实现mean-shift聚类算法的具体代码,供大家参考,具体内容如下
1、新建MeanShift.py文件
import numpy as np # 定义 预先设定 的阈值 STOP_THRESHOLD = 1e-4 CLUSTER_THRESHOLD = 1e-1 # 定义度量函数 def distance(a, b): return np.linalg.norm(np.array(a) - np.array(b)) # 定义高斯核函数 def gaussian_kernel(distance, bandwidth): return (1 / (bandwidth * np.sqrt(2 * np.pi))) * np.exp(-0.5 * ((distance / bandwidth)) ** 2) # mean_shift类 class mean_shift(object): def __init__(self, kernel=gaussian_kernel): self.kernel = kernel def fit(self, points, kernel_bandwidth): shift_points = np.array(points) shifting = [True] * points.shape[0] while True: max_dist = 0 for i in range(0, len(shift_points)): if not shifting[i]: continue p_shift_init = shift_points[i].copy() shift_points[i] = self._shift_point(shift_points[i], points, kernel_bandwidth) dist = distance(shift_points[i], p_shift_init) max_dist = max(max_dist, dist) shifting[i] = dist > STOP_THRESHOLD if(max_dist < STOP_THRESHOLD): break cluster_ids = self._cluster_points(shift_points.tolist()) return shift_points, cluster_ids def _shift_point(self, point, points, kernel_bandwidth): shift_x = 0.0 shift_y = 0.0 scale = 0.0 for p in points: dist = distance(point, p) weight = self.kernel(dist, kernel_bandwidth) shift_x += p[0] * weight shift_y += p[1] * weight scale += weight shift_x = shift_x / scale shift_y = shift_y / scale return [shift_x, shift_y] def _cluster_points(self, points): cluster_ids = [] cluster_idx = 0 cluster_centers = [] for i, point in enumerate(points): if(len(cluster_ids) == 0): cluster_ids.append(cluster_idx) cluster_centers.append(point) cluster_idx += 1 else: for center in cluster_centers: dist = distance(point, center) if(dist < CLUSTER_THRESHOLD): cluster_ids.append(cluster_centers.index(center)) if(len(cluster_ids) < i + 1): cluster_ids.append(cluster_idx) cluster_centers.append(point) cluster_idx += 1 return cluster_ids
2、调用上述py文件
# -*- coding: utf-8 -*- """ Created on Tue Oct 09 11:02:08 2018 @author: muli """ from sklearn.datasets.samples_generator import make_blobs import matplotlib.pyplot as plt import random import numpy as np import MeanShift def colors(n): ret = [] for i in range(n): ret.append((random.uniform(0, 1), random.uniform(0, 1), random.uniform(0, 1))) return ret def main(): centers = [[-1, -1], [-1, 1], [1, -1], [1, 1]] X, _ = make_blobs(n_samples=300, centers=centers, cluster_std=0.4) mean_shifter = MeanShift.mean_shift() _, mean_shift_result = mean_shifter.fit(X, kernel_bandwidth=0.5) np.set_printoptions(precision=3) print('input: {}'.format(X)) print('assined clusters: {}'.format(mean_shift_result)) color = colors(np.unique(mean_shift_result).size) for i in range(len(mean_shift_result)): plt.scatter(X[i, 0], X[i, 1], color = color[mean_shift_result[i]]) plt.show() if __name__ == '__main__': main()
结果如图所示:
参考链接
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持。
免责声明:本站文章均来自网站采集或用户投稿,网站不提供任何软件下载或自行开发的软件!
如有用户或公司发现本站内容信息存在侵权行为,请邮件告知! 858582#qq.com
白云城资源网 Copyright www.dyhadc.com
暂无“python实现mean-shift聚类算法”评论...
RTX 5090要首发 性能要翻倍!三星展示GDDR7显存
三星在GTC上展示了专为下一代游戏GPU设计的GDDR7内存。
首次推出的GDDR7内存模块密度为16GB,每个模块容量为2GB。其速度预设为32 Gbps(PAM3),但也可以降至28 Gbps,以提高产量和初始阶段的整体性能和成本效益。
据三星表示,GDDR7内存的能效将提高20%,同时工作电压仅为1.1V,低于标准的1.2V。通过采用更新的封装材料和优化的电路设计,使得在高速运行时的发热量降低,GDDR7的热阻比GDDR6降低了70%。
更新日志
2024年10月05日
2024年10月05日
- 群星《前途海量 电影原声专辑》[FLAC/分轨][227.78MB]
- 张信哲.1992-知道新曲与精丫巨石】【WAV+CUE】
- 王翠玲.1995-ANGEL【新艺宝】【WAV+CUE】
- 景冈山.1996-我的眼里只有你【大地唱片】【WAV+CUE】
- 群星《八戒 电影原声带》[320K/MP3][188.97MB]
- 群星《我的阿勒泰 影视原声带》[320K/MP3][139.47MB]
- 纪钧瀚《胎教古典音乐 钢琴与大提琴的沉浸时光》[320K/MP3][148.91MB]
- 刘雅丽.2001-丽花皇后·EMI精选王【EMI百代】【FLAC分轨】
- 齐秦.1994-黄金十年1981-1990CHINA.TOUR.LIVE精丫上华】【WAV+CUE】
- 群星.2008-本色·百代音乐人创作专辑【EMI百代】【WAV+CUE】
- 群星.2001-同步过冬AVCD【环球】【WAV+CUE】
- 群星.2020-同步过冬2020冀待晴空【环球】【WAV+CUE】
- 沈雁.1986-四季(2012梦田复刻版)【白云唱片】【WAV+CUE】
- 纪钧瀚《胎教古典音乐 钢琴与大提琴的沉浸时光》[FLAC/分轨][257.88MB]
- 《国语老歌 怀旧篇 3CD》[WAV/分轨][1.6GB]