一点见解,不断学习,欢迎指正
1、自定义loss层作为网络一层加进model,同时该loss的输出作为网络优化的目标函数
from keras.models import Model import keras.layers as KL import keras.backend as K import numpy as np from keras.utils.vis_utils import plot_model x_train=np.random.normal(1,1,(100,784)) x_in = KL.Input(shape=(784,)) x = x_in x = KL.Dense(100, activation='relu')(x) x = KL.Dense(784, activation='sigmoid')(x) def custom_loss1(y_true,y_pred): return K.mean(K.abs(y_true-y_pred)) loss1=KL.Lambda(lambda x:custom_loss1(*x),name='loss1')([x,x_in]) model = Model(x_in, [loss1]) model.get_layer('loss1').output#取出loss model.add_loss(loss1)#作为网络优化的目标函数 model.compile(optimizer='adam') plot_model(model,to_file='model.png',show_shapes=True) # model.fit(x_train, None, epochs=5)
2、自定义loss,作为网络优化的目标函数
x_in = KL.Input(shape=(784,)) x = x_in x = KL.Dense(100, activation='relu')(x) x = KL.Dense(784, activation='sigmoid')(x) model = Model(x_in, x) loss = K.mean((x - x_in)**2) model.add_loss(loss)#只是作为loss优化目标函数 model.compile(optimizer='adam') plot_model(model,to_file='model.png',show_shapes=True) model.fit(x_train, None, epochs=5)
补充知识:keras load_weights fine-tune
分享一个小技巧,就是在构建网络模型的时候,不要怕麻烦,给每一层都定义一个名字,这样在复用之前的参数权重的时候,除了官网给的先加载权重,再冻结权重之外,你可以通过简单的修改层的名字来达到加载之前训练的权重的目的,假设权重文件保存为model_pretrain.h5 ,重新使用的时候,我把想要复用的层的名字设置成一样的,然后
model.load_weights('model_pretrain.h5', by_name=True)
以上这篇keras 自定义loss model.add_loss的使用详解就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持。
免责声明:本站文章均来自网站采集或用户投稿,网站不提供任何软件下载或自行开发的软件!
如有用户或公司发现本站内容信息存在侵权行为,请邮件告知! 858582#qq.com
白云城资源网 Copyright www.dyhadc.com
暂无“keras 自定义loss model.add_loss的使用详解”评论...
更新日志
2024年12月25日
2024年12月25日
- 小骆驼-《草原狼2(蓝光CD)》[原抓WAV+CUE]
- 群星《欢迎来到我身边 电影原声专辑》[320K/MP3][105.02MB]
- 群星《欢迎来到我身边 电影原声专辑》[FLAC/分轨][480.9MB]
- 雷婷《梦里蓝天HQⅡ》 2023头版限量编号低速原抓[WAV+CUE][463M]
- 群星《2024好听新歌42》AI调整音效【WAV分轨】
- 王思雨-《思念陪着鸿雁飞》WAV
- 王思雨《喜马拉雅HQ》头版限量编号[WAV+CUE]
- 李健《无时无刻》[WAV+CUE][590M]
- 陈奕迅《酝酿》[WAV分轨][502M]
- 卓依婷《化蝶》2CD[WAV+CUE][1.1G]
- 群星《吉他王(黑胶CD)》[WAV+CUE]
- 齐秦《穿乐(穿越)》[WAV+CUE]
- 发烧珍品《数位CD音响测试-动向效果(九)》【WAV+CUE】
- 邝美云《邝美云精装歌集》[DSF][1.6G]
- 吕方《爱一回伤一回》[WAV+CUE][454M]