importtorchimporttorch.nnasnnimporttorch.optimasoptimfromtorchvisionimportdatasets,transformsfromtorch.utils.dataimportDataLoaderimportmatplotlib.pyplotaspltimportnumpyasnp# 定义生成器网络classGenerator(nn.Module):""" 生成器网络:将随机噪声转换为伪造的图像 输入:随机噪声向量(维度为latent_dim) 输出:生成的图像(1 x 28 x 28) """def__init__(self,latent_dim):super(Generator,self).__init__()self.model=nn.Sequential(nn.Linear(latent_dim,256),nn.LeakyReLU(0.2),nn.BatchNorm1d(256),nn.Linear(256,512),nn.LeakyReLU(0.2),nn.BatchNorm1d(512),nn.Linear(512,1024),nn.LeakyReLU(0.2),nn.BatchNorm1d(1024),nn.Linear(1024,28*28),nn.Tanh())defforward(self,z):""" 前向传播 参数: z: 随机噪声向量 返回: 生成的图像,形状为 [batch_size, 1, 28, 28] """img=self.model(z)img=img.view(img.size(0),1,28,28)returnimg# 定义判别器网络classDiscriminator(nn.Module):""" 判别器网络:判断输入的图像是真实的还是生成的 输入:图像(1 x 28 x 28) 输出:图像为真实的概率(0-1之间的标量) """def__init__(self):super(Discriminator,self).__init__()self.model=nn.Sequential(nn.Linear(28*28,1024),nn.LeakyReLU(0.2),nn.Dropout(0.3),nn.Linear(1024,512),nn.LeakyReLU(0.2),nn.Dropout(0.3),nn.Linear(512,256),nn.LeakyReLU(0.2),nn.Dropout(0.3),nn.Linear(256,1),nn.Sigmoid())defforward(self,img):""" 前向传播 参数: img: 输入图像,形状为 [batch_size, 1, 28, 28] 返回: 图像为真实的概率,形状为 [batch_size, 1] """img_flat=img.view(img.size(0),-1)validity=self.model(img_flat)returnvaliditydeftrain_gan(epochs=100,batch_size=64,latent_dim=100,sample_interval=200):""" 训练GAN模型 参数: epochs: 训练轮数 batch_size: 批次大小 latent_dim: 随机噪声向量的维度 sample_interval: 生成并保存样本的间隔 """# 设置设备(GPU或CPU)device=torch.device("cuda"iftorch.cuda.is_available()else"cpu")print(f"使用设备:{device}")# 加载MNIST数据集transform=transforms.Compose([transforms.ToTensor(),transforms.Normalize([0.5],[0.5])])dataset=datasets.MNIST(root="./data",train=True,download=True,transform=transform)dataloader=DataLoader(dataset,batch_size=batch_size,shuffle=True)# 初始化生成器和判别器generator=Generator(latent_dim).to(device)discriminator=Discriminator().to(device)# 定义损失函数和优化器adversarial_loss=nn.BCELoss()optimizer_G=optim.Adam(generator.parameters(),lr=0.0002,betas=(0.5,0.999))optimizer_D=optim.Adam(discriminator.parameters(),lr=0.0002,betas=(0.5,0.999))# 训练循环forepochinrange(epochs):fori,(imgs,_)inenumerate(dataloader):# 配置输入real_imgs=imgs.to(device)batch_size=real_imgs.size(0)# 创建标签real=torch.ones(batch_size,1).to(device)fake=torch.zeros(batch_size,1).to(device)# ---------------------# 训练判别器# ---------------------optimizer_D.zero_grad()# 计算真实图像的损失real_loss=adversarial_loss(discriminator(real_imgs),real)# 生成假图像z=torch.randn(batch_size,latent_dim).to(device)gen_imgs=generator(z)# 计算假图像的损失fake_loss=adversarial_loss(discriminator(gen_imgs.detach()),fake)# 总判别器损失d_loss=(real_loss+fake_loss)/2d_loss.backward()optimizer_D.step()# ---------------------# 训练生成器# ---------------------optimizer_G.zero_grad()# 生成假图像z=torch.randn(batch_size,latent_dim).to(device)gen_imgs=generator(z)# 生成器希望判别器认为生成的图像是真实的g_loss=adversarial_loss(discriminator(gen_imgs),real)g_loss.backward()optimizer_G.step()# 打印训练进度ifi%50==0:print(f"[Epoch{epoch}/{epochs}] [Batch{i}/{len(dataloader)}] "f"[D loss:{d_loss.item():.4f}] [G loss:{g_loss.item():.4f}]")# 定期保存生成的图像ifi%sample_interval==0:save_images(gen_imgs,epoch,i)# 训练完成后,生成最终样本print("\n训练完成!生成最终样本...")z=torch.randn(25,latent_dim).to(device)gen_imgs=generator(z)save_images(gen_imgs,epochs,0,final=True)defsave_images(images,epoch,batch_idx,final=False):""" 保存生成的图像 参数: images: 生成的图像张量 epoch: 当前轮数 batch_idx: 当前批次索引 final: 是否为最终样本 """images=images.detach().cpu().numpy()images=0.5*images+0.5# 反归一化到[0, 1]范围fig,axes=plt.subplots(5,5,figsize=(10,10))fori,axinenumerate(axes.flat):ifi<images.shape[0]:ax.imshow(images[i,0],cmap='gray')ax.axis('off')iffinal:plt.savefig(f'gan_final_samples.png')print(f"最终样本已保存为: gan_final_samples.png")else:plt.savefig(f'gan_epoch{epoch}_batch{batch_idx}.png')plt.close()if__name__=="__main__":# 训练GAN模型train_gan(epochs=20,batch_size=64,latent_dim=100,sample_interval=200)简单的GAN生成学习案例
张小明
前端开发工程师
费曼:没人真正理解量子力学!光的波粒二象性,颠覆人类常识
光到底是个什么东西?牛顿提出了“微粒说”,他认为光是由无数微小的、有质量的粒子组成的,就像机关枪射出的一颗颗子弹,从太阳飞向地球。这个理论非常符合直觉:光走直线,就像子弹一样,光照在镜子…
Tableau性能监控:大数据分析平台的运维指南
Tableau性能监控:大数据分析平台的运维指南 关键词:Tableau性能监控、大数据分析、运维优化、查询延迟、服务器负载、缓存命中率、可视化渲染 摘要:本文以企业级大数据分析平台的Tableau运维需求为背景,从“为什么需要监控”到“如…
Windows任务栏透明美化终极指南:TranslucentTB完全使用教程
Windows任务栏透明美化终极指南:TranslucentTB完全使用教程 【免费下载链接】TranslucentTB 项目地址: https://gitcode.com/gh_mirrors/tra/TranslucentTB 想要让Windows桌面焕然一新?TranslucentTB任务栏透明美化工具正是你需要的梦幻桌面神器…
8个AI论文软件推荐!专科生毕业论文格式规范+写作神器!
8个AI论文软件推荐!专科生毕业论文格式规范写作神器! AI 工具如何助力论文写作? 对于许多专科生来说,撰写毕业论文是一项既重要又充满挑战的任务。从选题到资料收集,再到结构搭建和内容撰写,每一个环节都需…
Windows任务栏透明化改造:让你的桌面焕发新生
Windows任务栏透明化改造:让你的桌面焕发新生 【免费下载链接】TranslucentTB 项目地址: https://gitcode.com/gh_mirrors/tra/TranslucentTB 想让Windows桌面摆脱千篇一律的单调外观?TranslucentTB这款轻量级工具正是你需要的桌面美化神器。它能…
PaddlePaddle镜像能否对接Redis缓存推理结果?
PaddlePaddle镜像能否对接Redis缓存推理结果? 在当前AI服务日益追求低延迟、高并发的背景下,一个看似简单却极具工程价值的问题浮现出来:当我们在容器中部署PaddlePaddle模型时,能不能把那些“算过一次”的结果记下来,…