AI测试学习记录
一:模型验证
留出法(适用于大量数据):70%训练数据,15%验证数据,15%测试数据,然后计算平均值和标准差
K折交叉验证(适用于数据量小,需要稳健评估的场景):将数据分成K份,每单独一份作为验证数据,然后计算平均值和标准差
平均值:模型的平均表现,越大越好
标准差:模型的稳定能力,越小越好(低标准差,每次验证的性能接近,模型对不同数据子集的泛化能力稳定,结果可靠。高标准差:模型性能波动较大,对训练数据较为敏感,可能存在过拟合现象,评估结果的可靠性低)
一:模型验证
留出法(适用于大量数据):70%训练数据,15%验证数据,15%测试数据,然后计算平均值和标准差
K折交叉验证(适用于数据量小,需要稳健评估的场景):将数据分成K份,每单独一份作为验证数据,然后计算平均值和标准差
平均值:模型的平均表现,越大越好
标准差:模型的稳定能力,越小越好(低标准差,每次验证的性能接近,模型对不同数据子集的泛化能力稳定,结果可靠。高标准差:模型性能波动较大,对训练数据较为敏感,可能存在过拟合现象,评估结果的可靠性低)