news 2026/4/16 12:58:10

简单的GAN生成学习案例

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
简单的GAN生成学习案例
importtorchimporttorch.nnasnnimporttorch.optimasoptimfromtorchvisionimportdatasets,transformsfromtorch.utils.dataimportDataLoaderimportmatplotlib.pyplotaspltimportnumpyasnp# 定义生成器网络classGenerator(nn.Module):""" 生成器网络:将随机噪声转换为伪造的图像 输入:随机噪声向量(维度为latent_dim) 输出:生成的图像(1 x 28 x 28) """def__init__(self,latent_dim):super(Generator,self).__init__()self.model=nn.Sequential(nn.Linear(latent_dim,256),nn.LeakyReLU(0.2),nn.BatchNorm1d(256),nn.Linear(256,512),nn.LeakyReLU(0.2),nn.BatchNorm1d(512),nn.Linear(512,1024),nn.LeakyReLU(0.2),nn.BatchNorm1d(1024),nn.Linear(1024,28*28),nn.Tanh())defforward(self,z):""" 前向传播 参数: z: 随机噪声向量 返回: 生成的图像,形状为 [batch_size, 1, 28, 28] """img=self.model(z)img=img.view(img.size(0),1,28,28)returnimg# 定义判别器网络classDiscriminator(nn.Module):""" 判别器网络:判断输入的图像是真实的还是生成的 输入:图像(1 x 28 x 28) 输出:图像为真实的概率(0-1之间的标量) """def__init__(self):super(Discriminator,self).__init__()self.model=nn.Sequential(nn.Linear(28*28,1024),nn.LeakyReLU(0.2),nn.Dropout(0.3),nn.Linear(1024,512),nn.LeakyReLU(0.2),nn.Dropout(0.3),nn.Linear(512,256),nn.LeakyReLU(0.2),nn.Dropout(0.3),nn.Linear(256,1),nn.Sigmoid())defforward(self,img):""" 前向传播 参数: img: 输入图像,形状为 [batch_size, 1, 28, 28] 返回: 图像为真实的概率,形状为 [batch_size, 1] """img_flat=img.view(img.size(0),-1)validity=self.model(img_flat)returnvaliditydeftrain_gan(epochs=100,batch_size=64,latent_dim=100,sample_interval=200):""" 训练GAN模型 参数: epochs: 训练轮数 batch_size: 批次大小 latent_dim: 随机噪声向量的维度 sample_interval: 生成并保存样本的间隔 """# 设置设备(GPU或CPU)device=torch.device("cuda"iftorch.cuda.is_available()else"cpu")print(f"使用设备:{device}")# 加载MNIST数据集transform=transforms.Compose([transforms.ToTensor(),transforms.Normalize([0.5],[0.5])])dataset=datasets.MNIST(root="./data",train=True,download=True,transform=transform)dataloader=DataLoader(dataset,batch_size=batch_size,shuffle=True)# 初始化生成器和判别器generator=Generator(latent_dim).to(device)discriminator=Discriminator().to(device)# 定义损失函数和优化器adversarial_loss=nn.BCELoss()optimizer_G=optim.Adam(generator.parameters(),lr=0.0002,betas=(0.5,0.999))optimizer_D=optim.Adam(discriminator.parameters(),lr=0.0002,betas=(0.5,0.999))# 训练循环forepochinrange(epochs):fori,(imgs,_)inenumerate(dataloader):# 配置输入real_imgs=imgs.to(device)batch_size=real_imgs.size(0)# 创建标签real=torch.ones(batch_size,1).to(device)fake=torch.zeros(batch_size,1).to(device)# ---------------------# 训练判别器# ---------------------optimizer_D.zero_grad()# 计算真实图像的损失real_loss=adversarial_loss(discriminator(real_imgs),real)# 生成假图像z=torch.randn(batch_size,latent_dim).to(device)gen_imgs=generator(z)# 计算假图像的损失fake_loss=adversarial_loss(discriminator(gen_imgs.detach()),fake)# 总判别器损失d_loss=(real_loss+fake_loss)/2d_loss.backward()optimizer_D.step()# ---------------------# 训练生成器# ---------------------optimizer_G.zero_grad()# 生成假图像z=torch.randn(batch_size,latent_dim).to(device)gen_imgs=generator(z)# 生成器希望判别器认为生成的图像是真实的g_loss=adversarial_loss(discriminator(gen_imgs),real)g_loss.backward()optimizer_G.step()# 打印训练进度ifi%50==0:print(f"[Epoch{epoch}/{epochs}] [Batch{i}/{len(dataloader)}] "f"[D loss:{d_loss.item():.4f}] [G loss:{g_loss.item():.4f}]")# 定期保存生成的图像ifi%sample_interval==0:save_images(gen_imgs,epoch,i)# 训练完成后,生成最终样本print("\n训练完成!生成最终样本...")z=torch.randn(25,latent_dim).to(device)gen_imgs=generator(z)save_images(gen_imgs,epochs,0,final=True)defsave_images(images,epoch,batch_idx,final=False):""" 保存生成的图像 参数: images: 生成的图像张量 epoch: 当前轮数 batch_idx: 当前批次索引 final: 是否为最终样本 """images=images.detach().cpu().numpy()images=0.5*images+0.5# 反归一化到[0, 1]范围fig,axes=plt.subplots(5,5,figsize=(10,10))fori,axinenumerate(axes.flat):ifi<images.shape[0]:ax.imshow(images[i,0],cmap='gray')ax.axis('off')iffinal:plt.savefig(f'gan_final_samples.png')print(f"最终样本已保存为: gan_final_samples.png")else:plt.savefig(f'gan_epoch{epoch}_batch{batch_idx}.png')plt.close()if__name__=="__main__":# 训练GAN模型train_gan(epochs=20,batch_size=64,latent_dim=100,sample_interval=200)

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/12 1:14:24

费曼:没人真正理解量子力学!光的波粒二象性,颠覆人类常识

光到底是个什么东西&#xff1f;牛顿提出了“微粒说”&#xff0c;他认为光是由无数微小的、有质量的粒子组成的&#xff0c;就像机关枪射出的一颗颗子弹&#xff0c;从太阳飞向地球。这个理论非常符合直觉&#xff1a;光走直线&#xff0c;就像子弹一样&#xff0c;光照在镜子…

作者头像 李华
网站建设 2026/4/11 11:14:35

Tableau性能监控:大数据分析平台的运维指南

Tableau性能监控&#xff1a;大数据分析平台的运维指南 关键词&#xff1a;Tableau性能监控、大数据分析、运维优化、查询延迟、服务器负载、缓存命中率、可视化渲染 摘要&#xff1a;本文以企业级大数据分析平台的Tableau运维需求为背景&#xff0c;从“为什么需要监控”到“如…

作者头像 李华
网站建设 2026/4/16 12:15:21

Windows任务栏透明美化终极指南:TranslucentTB完全使用教程

Windows任务栏透明美化终极指南&#xff1a;TranslucentTB完全使用教程 【免费下载链接】TranslucentTB 项目地址: https://gitcode.com/gh_mirrors/tra/TranslucentTB 想要让Windows桌面焕然一新&#xff1f;TranslucentTB任务栏透明美化工具正是你需要的梦幻桌面神器…

作者头像 李华
网站建设 2026/4/16 12:25:56

8个AI论文软件推荐!专科生毕业论文格式规范+写作神器!

8个AI论文软件推荐&#xff01;专科生毕业论文格式规范写作神器&#xff01; AI 工具如何助力论文写作&#xff1f; 对于许多专科生来说&#xff0c;撰写毕业论文是一项既重要又充满挑战的任务。从选题到资料收集&#xff0c;再到结构搭建和内容撰写&#xff0c;每一个环节都需…

作者头像 李华
网站建设 2026/4/15 12:54:59

Windows任务栏透明化改造:让你的桌面焕发新生

Windows任务栏透明化改造&#xff1a;让你的桌面焕发新生 【免费下载链接】TranslucentTB 项目地址: https://gitcode.com/gh_mirrors/tra/TranslucentTB 想让Windows桌面摆脱千篇一律的单调外观&#xff1f;TranslucentTB这款轻量级工具正是你需要的桌面美化神器。它能…

作者头像 李华
网站建设 2026/4/16 6:01:21

PaddlePaddle镜像能否对接Redis缓存推理结果?

PaddlePaddle镜像能否对接Redis缓存推理结果&#xff1f; 在当前AI服务日益追求低延迟、高并发的背景下&#xff0c;一个看似简单却极具工程价值的问题浮现出来&#xff1a;当我们在容器中部署PaddlePaddle模型时&#xff0c;能不能把那些“算过一次”的结果记下来&#xff0c;…

作者头像 李华