如何比较两个或多个分布:从可视化到统计检验的方法总结

比较一个变量在不同组中的分布是数据科学中的一个常见问题。当我们想要评估一项策略(用户体验功能、广告活动、药物等)的因果效应时,因果推断的黄金标准便是随机对照试验,也就是所谓的A /B测试。在实践中,我们为研究选择一个样本,并将其随机分为对照组(control group)和实验组(treatment group)比较两组之间的结果。随机化确保了两组之间的唯一差异,这样我们就可以将结果差异归因于实验效果。

因为是随机的所以两组个体不会完全的相同(identical)。但是有时候,它们在总体表现时甚至不是”相似”的(similar)。例如,我们可能在一个群体中有更多的男性,或者年长的人,等等。(我们通常称这些特征为协变量或控制变量)。当这种情况发生时,就不能再确定结果的差异只是由于实验得来的。因此,随机化后,检查所有观察变量是否在组间平衡,是否没有系统差异是非常重要的。

在这篇文章中,我们将看到比较两个(或更多)分布的不同方法,并评估它们差异的量级和重要性。我们将考虑两种不同的方法,可视化和统计。这两种方法可以为我们的提供直觉和严谨的数值来快速评估和探索差异,但是需要注意的是,这些方法很难区分这些差异是系统性的还是由于噪声造成的。

假设我们需要对一组人进行实验并且已经将他们随机分为实验组和对照组。我们希望它们尽可能具有可比性,以便将两组之间的任何差异仅归因于实验效果。我们还将实验组分为不同的组,以检验不同实验方法的效果(例如,同一种药物的轻微变化)。

对于这个例子,我模拟了1000个人的数据集,我们观察他们的一组特征。我从src导入了数据生成进程dgp_rnd_assignment()。DGP和src.utils中的一些绘图函数和库。

from src.utils import *
from src.dgp import dgp_rnd_assignment

df = dgp_rnd_assignment().generate_data()
df.head()

如何比较两个或多个分布:从可视化到统计检验的方法总结

我们有1000个人的信息,观察他们的性别、年龄和周收入。每个人要么被分配到4个不同的实验组要么被分配到对照组。

2组数据对比-可视化

让我们从最简单的开始:我们想要比较整个实验组和对照组的收入分配。我们首先探索可视化方法,然后是统计方法。第一种方法的优点是可以使用我们的直觉进行判断,第二种方法的优点是使用数字判断更加的严谨。

对于大多数可视化,这里将使用Python的seaborn库。

箱线图

第一种视觉方法是箱线图。箱线图是汇总统计和数据可视化之间的良好折衷。框的中心代表中位数,而边框分别代表第1(Q1)和第3四分位数(Q3)。扩展线延伸到框外超过四分位距 (Q3 – Q1) 1.5 倍的第一个数据点。落在扩展线之外的点是单独绘制的,通常会被认为是异常值。

因此,箱线图提供了汇总统计数据(方框和扩展线)和直接数据可视化(异常值)。

sns.boxplot(data=df, x='Group', y='Income');
plt.title("Boxplot");

如何比较两个或多个分布:从可视化到统计检验的方法总结

实验组的收入分配更加分散:橙色盒子更大,它的扩展线覆盖范围更广。但是箱线图的问题是它隐藏了数据的形状,它告诉我们一些汇总的统计数据,但没有显示实际的数据分布。

直方图

绘制分布图最直观的方法是直方图。直方图将数据分组到同等宽的容器(bin)中,并绘制出每个容器中的观察数据的数量。

sns.histplot(data=df, x='Income', hue='Group', bins=50);
plt.title("Histogram");

如何比较两个或多个分布:从可视化到统计检验的方法总结

直方图也存在一些问题

  • 由于两组的观察次数不同,因此两个直方图不具有可比性
  • bin的数量是任意的

我们可以使用 stat 选项来绘制密度而不是计数来解决第一个问题,并将 common_norm 设置为 False 分别对每个直方图进行归一化。

sns.histplot(data=df, x='Income', hue='Group', bins=50, stat='density', common_norm=False);
plt.title("Density Histogram");

如何比较两个或多个分布:从可视化到统计检验的方法总结

这样这两个直方图就具有可比性!

但是一个重要的问题仍然存在:bin的大小是任意的。在极端特殊的情况下,如果我们将数据更少分组,最终会得到最多只有一个观察值的 bin,如果我们将数据分组更多,我们最终会只得到一个 bin。在这两种情况下,我们都无法判断。这是一个经典的偏差-方差权衡的问题。

核密度

一种可能的解决方案是使用核密度函数,该函数尝试使用核密度估计 (KDE) 用连续函数逼近直方图。

sns.kdeplot(x='Income', data=df, hue='Group', common_norm=False);
plt.title("Kernel Density Function");

如何比较两个或多个分布:从可视化到统计检验的方法总结

从图中可以看到,收入核密度似乎在实验组中具有更高的方差,但是各组的平均值却是相似的。核密度估计的问题在于它有点像一个黑匣子,可能会掩盖数据的相关特征。

累积分布

两种分布更透明的表示是它们的累积分布函数(Cumulative Distribution Function)。在 x 轴(收入)的每个点,我们绘制具有相等或更低值的数据点的百分比。累积分布函数的主要优点是

  • 不需要做出任何的选择(例如bin的数量)
  • 不需要执行任何近似(例如使用 KDE),图形代表所有数据点
sns.histplot(x='Income', data=df, hue='Group', bins=len(df), stat="density",
             element="step", fill=False, cumulative=True, common_norm=False);
plt.title("Cumulative distribution function");

如何比较两个或多个分布:从可视化到统计检验的方法总结

我们应该如何解释这张图?

  • 由于这两条线在0.5 (y轴)处或多或少交叉,这意味着它们的中值是相似的
  • 因为橙色线在左边的蓝线之上,在右边的蓝线之下,这意味着实验组的分布是fatter tails(肥尾)

QQ图

一种相关的方法是 QQ 图,其中 q 代表分位数。QQ 图绘制了两个分布的分位数。如果分布相同应该得到一条 45 度线。

Python 中没有原生的 QQ 图功能,而 statsmodels 包提供了 qqplot 功能,但相当麻烦。因此,我们将手动完成。

首先,我们需要使用 percentile 函数计算两组的四分位数。

income = df['Income'].values
income_t = df.loc[df.Group=='treatment', 'Income'].values
income_c = df.loc[df.Group=='control', 'Income'].values

df_pct = pd.DataFrame()
df_pct['q_treatment'] = np.percentile(income_t, range(100))
df_pct['q_control'] = np.percentile(income_c, range(100))

现在我们可以绘制两个分位数分布,加上 45 度线,代表基准完美拟合。

plt.figure(figsize=(8, 8))
plt.scatter(x='q_control', y='q_treatment', data=df_pct, label='Actual fit');
sns.lineplot(x='q_control', y='q_control', data=df_pct, color='r', label='Line of perfect fit');
plt.xlabel('Quantile of income, control group')
plt.ylabel('Quantile of income, treatment group')
plt.legend()
plt.title("QQ plot");

如何比较两个或多个分布:从可视化到统计检验的方法总结

QQ 图在累积分布图方面提供了非常相似的信息:实验组的收入具有相同的中位数(线在中心交叉)但尾部更宽(点在左边的线以下,右边的线以上)。

2组数据对比-统计学方法

到目前为止,我们已经看到了不同的方法来可视化分布之间的差异。可视化的主要优点是直观:我们可以观察差异并直观地评估它们。

然而,我们可能想要更加严格,并尝试评估分布之间差异的统计显着性,即 回答”观察到的差异是系统性的还是由于采样噪声?”的问题。

我们现在将分析不同的检验方法以区分两个分布。

T检验

第一个也是最常见的是学生 t 检验。T 检验通常用于比较均值。我们要检验两组的收入分配均值是否相同。两均值比较检验的检验统计量由下式给出:

如何比较两个或多个分布:从可视化到统计检验的方法总结

其中 x̅ 是样本均值,s 是样本标准差。在较温和的条件下,检验统计量作为学生 t 分布渐近分布。

我们使用 scipy 中的 ttest_ind 函数来执行 t 检验。该函数返回检验统计量和隐含的 p 值。

from scipy.stats import ttest_ind

stat, p_value = ttest_ind(income_c, income_t)
print(f"t-test: statistic={stat:.4f}, p-value={p_value:.4f}")

t-test: statistic=-1.5549, p-value=0.1203

检验的p值为0.12,因此我们不拒绝实验组和对照组平均值无差异的零假设。

标准化平均差 (SMD)

一般来说,当我们进行随机对照试验或 A/B 测试时,最好对实验组和对照组中所有变量的均值差异进行检验。

然而,由于 t 检验统计量的分母取决于样本量,因此 t 检验的 p 值难以跨研究进行比较。所以我们可能在一个差异非常小但样本量很大的实验中获得显着的结果,而在差异很大但样本量小的实验中我们可能会获得不显着的结果。

解决这个问题的一种解决方案是标准化平均差 (SMD)。顾名思义,这不是一个适当的统计量,而只是一个标准化的差异,可以计算为:

如何比较两个或多个分布:从可视化到统计检验的方法总结

通常,低于0.1的值被认为是一个”小”的差异。

最将实验组和对照组的所有变量的平均值以及两者之间的距离度量(t 检验或 SMD)收集到一个称为平衡表的表中。可以使用causalml库中的create_table_one函数来生成它。正如该函数的名称所显示的那样,在执行A/B测试时,平衡表应该是你希望看到的的第一个表。

from causalml.match import create_table_one

df['treatment'] = df['Group']=='treatment'
create_table_one(df, 'treatment', ['Gender', 'Age', 'Income'])

如何比较两个或多个分布:从可视化到统计检验的方法总结

在前两列中,我们可以看到实验组和对照组的不同变量的平均值,括号中是标准误差。在最后一列中,SMD 的值表示所有变量的标准化差异均大于 0.1,这表明两组可能不同。

Mann–Whitney U检验

另一种检验是 Mann-Whitney U 检验,它比较两个分布的中位数。该检验的原假设是两组具有相同的分布,而备择假设是一组比另一组具有更大(或更小)的值。

与上面我们看到的其他检验不同,Mann-Whitney U 检验对异常值不可知的。

检验过程如下。

  • 合并所有数据点并对它们进行排名(按升序或降序排列)
  • 计算 U₁ = R₁ – n₁(n₁ + 1)/2,其中 R₁ 是第一组数据点的秩和,n₁ 是第一组数据点的数量。
  • 类似地计算第二组的 U₂。
  • 检验统计量由 stat = min(U₁, U₂) 给出。

在两个分布之间没有系统等级差异的原假设下(即相同的中位数),检验统计量是渐近正态分布的,具有已知的均值和方差。

计算 R 和 U 背后的理论如下:如果第一个样本中的值都大于第二个样本中的值,则 R₁ = n₁(n₁ + 1)/2 并且作为结果,U 1 将为零(可达到的最小值)。否则如果两个样本相似,U1 和 U2 将非常接近 n1 n2 / 2(可达到的最大值)。

我们使用 scipy 的 mannwhitneyu 函数。

from scipy.stats import mannwhitneyu

stat, p_value = mannwhitneyu(income_t, income_c)
print(f" Mann–Whitney U Test: statistic={stat:.4f}, p-value={p_value:.4f}")

Mann–Whitney U Test: statistic=106371.5000, p-value=0.6012

我们得到的p值为0.6,这意味着我们不拒绝实验组和对照组的中位数没有差异的零假设。

置换检验

一种非参数替代方法是置换检验。在原假设下,两个分布应该是相同的,因此打乱组标签不应该显着改变任何统计数据。

可以选择任何统计数据并检查其在原始样本中的值如何与其在组标签排列中的分布进行比较。例如使用实验组和对照组之间样本均值的差异作为检验统计。

sample_stat = np.mean(income_t) - np.mean(income_c)stats = np.zeros(1000)
for k in range(1000):
    labels = np.random.permutation((df['Group'] == 'treatment').values)
    stats[k] = np.mean(income[labels]) - np.mean(income[labels==False])
p_value = np.mean(stats > sample_stat)

print(f"Permutation test: p-value={p_value:.4f}")

Permutation test: p-value=0.0530

置换检验得到的 p 值为 0.053,这意味着在 5% 的水平上对原假设的弱不拒绝。那么应该如何解释 p 值?这意味着数据中均值的差异大于置换样本中均值差异的 1–0.0560 = 94.4%。

我们可以通过绘制检验统计在排列中的分布与其样本值的分布来可视化。

plt.hist(stats, label='Permutation Statistics', bins=30);
plt.axvline(x=sample_stat, c='r', ls='--', label='Sample Statistic');
plt.legend();
plt.xlabel('Income difference between treatment and control group')
plt.title('Permutation Test');

如何比较两个或多个分布:从可视化到统计检验的方法总结

正如我们所看到的,样本统计量相对于置换样本中的值是相当极端的,但并不过分。

卡方检验

卡方检验是一种非常强大的检验,主要用于检验频率差异。

卡方检验最不为人知的应用之一是检验两个分布之间的相似性。这个想法是对两组的观察结果进行分类。如果两个分布相同,我们会期望每个 bin 中的观察频率相同。这里重要的一点是需要在每个 bin 中进行足够的观察,以使检验有效。

生成与对照组中收入分布的十分位数相对应的bin,然后如果两个分布相同,我计算实验组中每个bin中的预期观察数。

Init dataframe
df_bins = pd.DataFrame()

Generate bins from control group
_, bins = pd.qcut(income_c, q=10, retbins=True)
df_bins['bin'] = pd.cut(income_c, bins=bins).value_counts().index

Apply bins to both groups
df_bins['income_c_observed'] = pd.cut(income_c, bins=bins).value_counts().values
df_bins['income_t_observed'] = pd.cut(income_t, bins=bins).value_counts().values

Compute expected frequency in the treatment group
df_bins['income_t_expected'] = df_bins['income_c_observed'] / np.sum(df_bins['income_c_observed']) * np.sum(df_bins['income_t_observed'])

df_bins

如何比较两个或多个分布:从可视化到统计检验的方法总结

现在可以通过比较处理组中跨bin的预期 (E) 和观察 (O) 观察数来执行检验。检验统计量由下式给出

如何比较两个或多个分布:从可视化到统计检验的方法总结

其中 bin 由 i 索引,O 是 bin i 中观察到的数据点数,E 是 bin i 中的预期的数据点数。由于我们使用对照组中收入分布的十分位数生成了 bin,因此我们预计处理组中每个 bin 的观察数在各个 bin 之间是相同的。检验统计量渐近分布为卡方分布。

为了计算检验统计量和检验的 p 值,我们使用 scipy 的卡方函数。

from scipy.stats import chisquare

stat, p_value = chisquare(df_bins['income_t_observed'], df_bins['income_t_expected'])
print(f"Chi-squared Test: statistic={stat:.4f}, p-value={p_value:.4f}")

Chi-squared Test: statistic=32.1432, p-value=0.0002

与上面介绍的所有其他检验不同,卡方检验强烈拒绝两个分布相同的原假设。这是为什么?

原因在于这两个分布具有相似的中心但尾部不同,并且卡方检验测试了整个分布的相似性,而不仅仅是中心,就像我们在之前的检验中所做的那样。

这个结果讲述了一个警示:在从 p 值得出盲目结论之前,了解实际检验的内容非常重要!

Kolmogorov-Smirnov 检验

Kolmogorov-Smirnov检验的思想是比较两组的累积分布。特别是,Kolmogorov-Smirnov 检验统计量是两个累积分布之间的最大绝对差。

如何比较两个或多个分布:从可视化到统计检验的方法总结

其中 F₁ 和 F₂ 是两个累积分布函数,x 是基础变量的值。Kolmogorov-Smirnov 检验统计量的渐近分布是 Kolmogorov 分布。

为了更好地理解,让我们绘制累积分布函数和检验统计量。首先计算累积分布函数。

df_ks = pd.DataFrame()
df_ks['Income'] = np.sort(df['Income'].unique())
df_ks['F_control'] = df_ks['Income'].apply(lambda x: np.mean(income_c<=x)) df_ks['f_treatment']="df_ks['Income'].apply(lambda" x: np.mean(income_t<="x))" df_ks.head() < code></=x))>

如何比较两个或多个分布:从可视化到统计检验的方法总结

现在需要找到累积分布函数之间的绝对距离最大的点。

k = np.argmax( np.abs(df_ks['F_control'] - df_ks['F_treatment']))
ks_stat = np.abs(df_ks['F_treatment'][k] - df_ks['F_control'][k])

可以通过绘制两个累积分布函数和检验统计量的值来可视化检验统计量的值。

y = (df_ks['F_treatment'][k] + df_ks['F_control'][k])/2
plt.plot('Income', 'F_control', data=df_ks, label='Control')
plt.plot('Income', 'F_treatment', data=df_ks, label='Treatment')
plt.errorbar(x=df_ks['Income'][k], y=y, yerr=ks_stat/2, color='k',
             capsize=5, mew=3, label=f"Test statistic: {ks_stat:.4f}")
plt.legend(loc='center right');
plt.title("Kolmogorov-Smirnov Test");

如何比较两个或多个分布:从可视化到统计检验的方法总结

从图中我们可以看出,检验统计量的值对应于收入~650 时的两个累积分布之间的距离。对于该收入值在两组之间存在最大的不平衡。

我们可以使用 scipy 中的 kstest 函数执行实检验。

from scipy.stats import kstest

stat, p_value = kstest(income_t, income_c)
print(f" Kolmogorov-Smirnov Test: statistic={stat:.4f}, p-value={p_value:.4f}")

Kolmogorov-Smirnov Test: statistic=0.0974, p-value=0.0355

p 值低于 5%:我们以 95% 的置信度拒绝两个分布相同的原假设。

多组数据对比-可视化

到目前为止,我们只考虑了两组的情况,但是如果我们有多个组呢?我们在上面看到的一些方法可以很好地扩展,而另一些则不能。

作为一个示例,我们现在将查看不同实验组的收入分配是否相同。

箱线图

当我们有多组时,箱线图可以很好地扩展,因为我们可以并排放置不同的框。

sns.boxplot(x='Arm', y='Income', data=df.sort_values('Arm'));
plt.title("Boxplot, multiple groups");

如何比较两个或多个分布:从可视化到统计检验的方法总结

从图中可以看出,不同实验组的收入分配不同,编号越高的组平均收入越高。

提琴图

结合汇总统计和核密度估计的箱线图的一个非常好的扩展是小提琴图。小提琴图沿 y 轴显示不同的密度,因此它们不会重叠。默认情况下,它还在里面添加了一个微型箱线图。

sns.violinplot(x='Arm', y='Income', data=df.sort_values('Arm'));
plt.title("Violin Plot, multiple groups");

如何比较两个或多个分布:从可视化到统计检验的方法总结

小提琴图表明不同实验组的收入不同。

山脊图

山脊图沿 x 轴绘制了多个核密度分布,它比小提琴图更直观。在 matplotlib 和 seaborn 中都没有默认的山脊线图。素以需要joypy包。

from joypy import joyplot

joyplot(df, by='Arm', column='Income', colormap=sns.color_palette("crest", as_cmap=True));
plt.xlabel('Income');
plt.title("Ridgeline Plot, multiple groups");

如何比较两个或多个分布:从可视化到统计检验的方法总结

山脊图表明,编号越高的实验组收入越高。从这个图中也更容易理解分布的不同形状。

多组数据对比-统计学方法

最后,让我们考虑比较多个组的假设检验。为了简单起见,我们将集中讨论最常用的一个:f检验。

F检验

对于多个组最流行的检验方法是 F 检验。F 检验比较不同组间变量的方差。这种分析也称为方差分析。

F 检验统计量由下式给出

如何比较两个或多个分布:从可视化到统计检验的方法总结

其中 G 是组数,N 是观察数,x̅ 是总体平均值,x̅g 是组 g 内的平均值。在组独立性的原假设下,f 统计量是 F 分布的。

from scipy.stats import f_oneway

income_groups = [df.loc[df['Arm']==arm, 'Income'].values for arm in df['Arm'].dropna().unique()]
stat, p_value = f_oneway(*income_groups)
print(f"F Test: statistic={stat:.4f}, p-value={p_value:.4f}")

F Test: statistic=9.0911, p-value=0.0000

检验 p 值基本上为零,这意味着强烈拒绝实验组之间收入分配没有差异的原假设。

总结

在这篇文章中,我们看到了很多不同的方法来比较两个或多个分布,无论是在可视化上还是在统计上。这是许多应用程序中的主要问题,尤其是在因果推断中,我们需要使随机化使实验组和对照组尽可能具有可比性。

我们还看到了不同的方法如何适用于不同的情况。视觉方法非常直观,但统计方法对于决策至关重要,因为我们需要能够评估差异的幅度和统计意义。

本文代码:

https://avoid.overfit.cn/post/883ffe04b1e340c8a5fd2a7ea6364cbf

作者:Matteo Courthoud

Original: https://blog.csdn.net/m0_46510245/article/details/125442601
Author: deephub
Title: 如何比较两个或多个分布:从可视化到统计检验的方法总结

原创文章受到原创版权保护。转载请注明出处:https://www.johngo689.com/695255/

转载文章受原作者版权保护。转载请注明原作者出处!

(0)

大家都在看

  • 对于人工智能与教育的汇报问答Q&A整理20201124

    Q:人工智能在教育上的应用有什么弊端?A:资料连接(1)智能技术层面上, 人工智能教育技术尚未成熟,教育难题破解还存在许多问题,目前市场上的很多产品仍不够智能,学习数据稀疏、学习模…

    人工智能 2023年5月27日
    086
  • OpenCV与机器视觉

    最近在网易云课堂把南科大于仕琪团队的OpenCV教程完整看了一遍,对图像处理或者机器视觉又有了一个系统性的理解。OpenCV中文网站就是他创建的,他的研究团队及其相应成果可以在个人…

    人工智能 2023年7月18日
    088
  • 联邦学习框架浅析

    【前言】▲ 联邦学习问题回顾前文提及,于2016年,Google提出了用于训练输入法模型的新型方式,称为「联邦学习」。随着时间的推移,联邦学习不再是单纯解决Google输入法模型的…

    人工智能 2023年6月1日
    053
  • 【OpenCV 例程300篇】234. 特征提取之主成分分析(PCA)

    『youcans 的 OpenCV 例程300篇 – 总目录』 【youcans 的 OpenCV 例程 300篇】234. 特征提取之主成分分析(PCA) 5.1 特…

    人工智能 2023年7月19日
    062
  • 机器学习–聚类(公式结论)

    本文记录周志华《机器学习》聚类内容:(文中公式内容均来自周志华《机器学习》) 聚类是无监督学习中应用最广的方法,是根据将样本划分为k个不相交的簇,其性能度量通常使用内部指标(直接考…

    人工智能 2023年5月31日
    097
  • 论文阅读:HMER via Attention Aggregation based Bi-directional Mutual Learning

    一、简介 本文提出了一个新的具有注意聚集和双向相互学习(ABM)的HMER框架,如图所示。模型包括三个模块:特征提取、注意聚合和双向促进学习。 (1)在特征提取模块(FEM)中,使…

    人工智能 2023年7月14日
    060
  • C++文件操作

    1.创建文件流 创建文件流需要包含头文件 #include 创建文件输入流对象 ofstream file; 创建文件输出流对象 ifstream file; 2.写入文本文件 1…

    人工智能 2023年7月29日
    056
  • 数学模型及代码整理

    本人最近在准备美赛,为方便复习,将网上各种模型的优质文章整合在此,文章中涉及的代码大多为python。本文只整理了常用模型,对细碎知识点和不常见模型没有整理。 统计学习 描述性统计…

    人工智能 2023年7月16日
    062
  • CV16 人脸检测:Haar级联

    文章目录 * – Haar级联简介 – + 什么是Haar? + 什么是级联? + 优劣对比 – 获取Haar级联数据 – 检测人脸…

    人工智能 2023年7月2日
    081
  • 【详解】BiLSTM+CRF模型

    目录 * – + * 1 BiLSTM-CRF模型用途 * 2 BiLSTM-CRF模型介绍 * – 2.1 数据标签及模型架构 – + 2.1…

    人工智能 2023年6月24日
    091
  • 双十一特辑-北汇在C站的两周年打卡纪念:)

    今天先祝大家双十一快乐!同时今天也是北汇已经入驻C站2两周年啦~! 目前已在C站分享了244篇技术文章,康康两年的投稿历程:) 不仅仅是文章,两年期间我们在站内播出了16场直播啦,…

    人工智能 2023年6月28日
    0102
  • Learning可以应用于哪些领域

    问题描述 Learning可以应用于哪些领域? 详细介绍 Learning(学习)是指通过从数据中提取模式、观察和推理,获取新的知识和技能的过程。它是人类和动物获取和应用知识的基本…

    人工智能 2024年1月1日
    028
  • VS+openCV 处理图像的颜色(上)用策略设计模式比较颜色

    用策略设计模式比较颜色 【实现】 #pragma once #include<opencv2 core.hpp> #include<opencv2 highgui…

    人工智能 2023年6月22日
    056
  • 求解线性回归方程

    已知数据集( x 1 , y 1 ) , ( x 2 , y 2 ) . . . ( x N , y N ) {(x_1, y_1), (x_2, y_2)…(x_N,…

    人工智能 2023年6月18日
    052
  • SML实现图像标注/分类

    本文分享《信息搜索与人工智能》大作业的实现。题目的实现过程全在PPT,下面结合进行说明。 题目描述:任选某类图像为训练样本,编程实现其基于 SML 算法的类模型。要求图像的 GMM…

    人工智能 2023年7月2日
    064
  • Docker学习笔记

    Docker学习笔记 1.初始Docker * 1.1解决不同组件依赖的兼容性问题 1.2安装Docker 1.3Docker架构 – 1.3.1镜像 1.3.2容器 …

    人工智能 2023年6月26日
    072
亲爱的 Coder【最近整理,可免费获取】👉 最新必读书单  | 👏 面试题下载  | 🌎 免费的AI知识星球