Keras生成式学习(五)

阅读: 评论:0

Keras生成式学习(五)

Keras生成式学习(五)

生成式深度学习

生成式学习即创造学习,深度学习开始创造

一、使用LSTM 生成文本

给定前面的标记(token,通常是单词或字符),能够对下一个标记的概率进行建模的任何网络都叫作语言模型(language model)。
语言模型能够捕捉到语言的潜在空间(latent space),即语言的统计结构,从模型的 softmax 输出中进行概率采样是一种很巧妙的方法。

举个例子,

输入从文本语料中提取的N个字符组成的字符串,然后训练模型来生成第N+1个字符

下载并解析初始文本文件

import keras
import numpy as np
path = _file(&#',origin='.txt')
text = open(path).read().lower()
print('Corpus length:', len(text))

将字符序列向量化

maxlen = 60
step = 3
sentences = []
next_chars = []for i in range(0, len(text) - maxlen, step):sentences.append(text[i: i + maxlen])next_chars.append(text[i + maxlen])
print('Number of sequences:', len(sentences))chars = sorted(list(set(text)))
print('Unique characters:', len(chars))
char_indices = dict((char, chars.index(char)) for char in chars)
print(&#')x = np.zeros((len(sentences), maxlen, len(chars)), dtype=np.bool)
y = np.zeros((len(sentences), len(chars)), dtype=np.bool)
for i, sentence in enumerate(sentences):for t, char in enumerate(sentence):x[i, t, char_indices[char]] = 1y[i, char_indices[next_chars[i]]] =

构建网络

from keras import layers
model = dels.Sequential()
model.add(layers.LSTM(128, input_shape=(maxlen, len(chars))))
model.add(layers.Dense(len(chars), activation='softmax'))
optimizer = keras.optimizers.RMSprop(lr=0.01)
modelpile(loss='categorical_crossentropy', optimizer=optimizer)
def sample(preds, temperature=1.0):preds = np.asarray(preds).astype('float64')preds = np.log(preds) / temperatureexp_preds = np.exp(preds)preds = exp_preds / np.sum(exp_preds)probas = np.random.multinomial(1, preds, 1)return np.argmax(probasimport random
import sys
for epoch in range(1, 60):print('epoch', epoch)model.fit(x, y, batch_size=128, epochs=1)start_index = random.randint(0, len(text) - maxlen - 1)generated_text = text[start_index: start_index + maxlen]print('--- Generating with seed: "' + generated_text + '"')for temperature in [0.2, 0.5, 1.0, 1.2]:print('------ temperature:', temperature)sys.stdout.write(generated_text)for i in range(400):sampled = np.zeros((1, maxlen, len(chars)))for t, char in enumerate(generated_text):sampled[0, t, char_indices[char]] = 1.preds = model.predict(sampled, verbose=0)[0]next_index = sample(preds, temperature)next_char = chars[next_index]generated_text += next_chargenerated_text = generated_text[1:]sys.stdout.write(next_char)

二、DeepDream 图像修改技术

DeepDream 的过程是反向运行一个卷积神经网络,基于网络学到的表示来生成输入。不局限于图像模型,甚至并不局限于卷积神经网络。它可以应用于语音、音乐等更多内容。

  • 使用 DeepDream,我们尝试将所有层的激活最大化,而不是将某一层的激活最大化,因 此需要同时将大量特征的可视化混合在一起。
  • 不是从空白的、略微带有噪声的输入开始,而是从现有的图像开始,因此所产生的效果 能够抓住已经存在的视觉模式,并以某种艺术性的方式将图像元素扭曲。
  • 输入图像是在不同的尺度上[叫作八度(octave)]进行处理的,这可以提高可视化的质量。 我们来生成一些 DeepDream 图像。

举个例子,

三、神经风格迁移

风格迁移是指创建一张新图像,保留目标图像的内容的同时还抓住了参考图像的风格。

  • 内容可以被卷积神经网络更靠顶部的层激活所捕捉到
  • 风格可以被卷积神经网络不同层激活的内部相互关系所捕捉到

因此,深度学习可以将风格迁移表述为一个最优化过程,并用到了一个用预训练卷积神经网络所定义的损失

四、用变分自编码器生成图像

用深度学习进行图像生成,就是通过对潜在空间进行学习来实现的,这个潜在空间能够捕捉到关于图像数据集的统计信息。通过对潜在空间中的点进行采样和解码,我们可以生成前所未见的图像。这种方法有两种重要工具:变分自编码器(VAE)和生成式对抗网络(GAN)。

  • VAE 得到的是高度结构化的、连续的潜在表示。因此,它在潜在空间中进行各种图像编辑的效果很好,比如换脸、将皱眉脸换成微笑脸等。它制作基于潜在空间的动画效果也很好,比如沿着潜在空间的一个横截面移动,从而以连续的方式显示从一张起始图像缓慢变化为不同图像的效果。
  • GAN 可以生成逼真的单幅图像,但得到的潜在空间可能没有良好的结构,也没有很好的连续性

五、生成式对抗网络简介

生成式对抗网络(GAN,generative adversarial network)由一个生成器网络和一个判别器网络组成。
判别器的训练目的是能够区分生成器的输出与来自训练集的真实图像,
生成器的训练目的是欺骗判别器。生成器从未直接见过训练集中的图像,它所知道的关于数据的信息都来自于判别器。

  • GAN 很难训练
    因为训练 GAN 是一个动态过程,而不是具有固定损失的简单梯度下降过程。想要正确地训练 GAN,需要使用一些启发式技巧,还需要大量的调节
  • GAN 可能会生成非常逼真的图像
    但与 VAE 不同,GAN 学习的潜在空间没有整齐的连续结构,因此可能不适用于某些实际应用,比如通过潜在空间概念向量进行图像编辑

参考文章&图书

《Python深度学习》

系列文章

Keras深度学习入门(一)
Keras计算机视觉(二)
Keras文本和序列(三)
Keras深度学习高级(四)
Keras生成式学习(五)

@ 学必求其心得,业必贵其专精

本文发布于:2024-01-30 21:18:29,感谢您对本站的认可!

本文链接:https://www.4u4v.net/it/170662071522909.html

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。

标签:Keras
留言与评论(共有 0 条评论)
   
验证码:

Copyright ©2019-2022 Comsenz Inc.Powered by ©

网站地图1 网站地图2 网站地图3 网站地图4 网站地图5 网站地图6 网站地图7 网站地图8 网站地图9 网站地图10 网站地图11 网站地图12 网站地图13 网站地图14 网站地图15 网站地图16 网站地图17 网站地图18 网站地图19 网站地图20 网站地图21 网站地图22/a> 网站地图23