博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
吃透tensorflow那本书里面的LSTM那个程序
阅读量:4082 次
发布时间:2019-05-25

本文共 4263 字,大约阅读时间需要 14 分钟。

弄清了C++的这些之后,再看python的tensorflow LSTM代码感觉好很多

===============================================================================

至少面试时经得起拷问,有底气对不对。

可以试着先跟这里面的学习。

 

 

参考我的这些博文,有助于啃透这部分LSTM的代码

 

 

 

现在这个代码应该再语法上没什么太多问题了。

 

代码可以去这里复制

 

import numpy as npimport tensorflow as tfimport matplotlib.pyplot as plt%matplotlib inline# 1. 定义RNN的参数HIDDEN_SIZE = 30                            # LSTM中隐藏节点的个数。NUM_LAYERS = 2                              # LSTM的层数。TIMESTEPS = 10                              # 循环神经网络的训练序列长度。TRAINING_STEPS = 10000                      # 训练轮数。BATCH_SIZE = 32                             # batch大小。TRAINING_EXAMPLES = 10000                   # 训练数据个数。TESTING_EXAMPLES = 1000                     # 测试数据个数。SAMPLE_GAP = 0.01                           # 采样间隔。# 2. 产生正弦数据函数def generate_data(seq):    X = []    y = []    # 序列的第i项和后面的TIMESTEPS-1项合在一起作为输入;第i + TIMESTEPS项作为输出。    # 即用sin函数前面的TIMESTEPS个点的信息,预测第i + TIMESTEPS个点的函数值。    for i in range(len(seq) - TIMESTEPS):        X.append([seq[i: i + TIMESTEPS]])        y.append([seq[i + TIMESTEPS]])    return np.array(X, dtype=np.float32), np.array(y, dtype=np.float32)  # 3. 定义网络结构和优化步骤def lstm_model(X, y, is_training):    # 使用多层的LSTM结构。    cell = tf.nn.rnn_cell.MultiRNNCell([        tf.nn.rnn_cell.LSTMCell(HIDDEN_SIZE)        for _ in range(NUM_LAYERS)])     # 使用TensorFlow接口将多层的LSTM结构连接成RNN网络并计算其前向传播结果。    outputs, _ = tf.nn.dynamic_rnn(cell, X, dtype=tf.float32)    # outputs是顶层LSTM在每一步的输出结果,它的维度是[batch_size, time ,    # HIDDEN_SIZE]。在本问题中只关注最后一个时刻的输出结果。    output = outputs[:, -1, :]    # 对LSTM网络的输出再做加一层全链接层并计算损失。注意这里默认的损失为平均    # 平方差损失函数。    predictions = tf.contrib.layers.fully_connected(        output, 1, activation_fn=None)        # 只在训练时计算损失函数和优化步骤。测试时直接返回预测结果。    if not is_training:        return predictions, None, None            # 计算损失函数。    loss = tf.losses.mean_squared_error(labels=y, predictions=predictions)    # 创建模型优化器并得到优化步骤。    train_op = tf.contrib.layers.optimize_loss(        loss, tf.train.get_global_step(),        optimizer="Adagrad", learning_rate=0.1)        return predictions, loss, train_op# 4. 定义训练方法def train(sess, train_X, train_Y):    # 将训练数据以数据集的方式提供给计算图    ds = tf.data.Dataset.from_tensor_slices((train_X, train_Y))    ds = ds.repeat().shuffle(1000).batch(BATCH_SIZE)   #maxi:这种该怎么理解    X, y = ds.make_one_shot_iterator().get_next()        # 定义模型,得到预测结果、损失函数,和训练操作。    with tf.variable_scope("model"):        _, loss, train_op = lstm_model(X, y, True)            sess.run(tf.global_variables_initializer())    for i in range(TRAINING_STEPS):        _, l = sess.run([train_op, loss])        if i % 1000 == 0:            print("train step: " + str(i) + ", loss: ", str(l))            # 5. 定义测试方法def run_eval(sess, test_X, test_y):    # 将测试数据以数据集的方式提供给计算图。    ds = tf.data.Dataset.from_tensor_slices((test_X, test_y))    ds = ds.batch(1)    X, y = ds.make_one_shot_iterator().get_next()        # 调用模型得到计算结果。这里不需要输入真实的y值。    with tf.variable_scope("model", reuse=True):        prediction, _, _ = lstm_model(X, [0.0], False)        # 将预测结果存入一个数组。    predictions = []    labels = []    for i in range(TESTING_EXAMPLES):        p, l = sess.run([prediction, y])        predictions.append(p)        labels.append(l)    # 计算rmse作为评价指标。    predictions = np.array(predictions).squeeze()    labels = np.array(labels).squeeze()    rmse = np.sqrt(((predictions - labels) ** 2).mean(axis=0))    print("Root Mean Square Error is: %f" % rmse)        # 对预测的sin函数曲线进行绘图。    plt.figure()    plt.plot(predictions, label='predictions')    plt.plot(labels, label='real_sin')    plt.legend()    plt.show()        # 6. 生成数据并训练、验证# 用正弦函数生成训练和测试数据集合。# numpy.linspace函数可以创建一个等差序列的数组,它常用的参数有三个参数,# 第一个参数表示起始值,第二个参数表示终止值,第三个参数表示数列的长度。# 例如linespace(1, 10, 10)产生的数组是arrray([1, 2, 3, 4, 5, 6, 7, 8, 9, 10]) test_start = (TRAINING_EXAMPLES + TIMESTEPS) * SAMPLE_GAPtest_end = test_start + (TESTING_EXAMPLES + TIMESTEPS) * SAMPLE_GAPtrain_X, train_y = generate_data(np.sin(np.linspace(    0, test_start, TRAINING_EXAMPLES + TIMESTEPS, dtype=np.float32)))test_X, test_y = generate_data(np.sin(np.linspace(    test_start, test_end, TESTING_EXAMPLES + TIMESTEPS, dtype=np.float32)))#maxi:可以看到最后的步骤就是先训练模型,然后把训练出的模型拿去预测with tf.Session() as sess:    train(sess, train_X, train_y)    run_eval(sess, test_X, test_y)

 

转载地址:http://gllni.baihongyu.com/

你可能感兴趣的文章
原来我之前一直用的APM固件....现在很多东西明白了。
查看>>
realsense-ros里里程计相关代码
查看>>
似乎写个ROS功能包并不难,你会订阅话题发布话题,加点逻辑处理,就可以写一些基础的ROS功能包了。
查看>>
if __name__ == ‘__main__‘:就是Python里的main函数,脚本从这里开始执行,如果没有main函数则从上到下顺序执行。
查看>>
PX4官方用户和开发手册的首页面是会给你选择英文和中文的
查看>>
网络协议栈我是不是可以这么理解,就是把你要发送的数据自动处理成TCPIP格式的消息发出去,这种底层的转换不需要你弄了。
查看>>
除了LwIP还有uIP
查看>>
《跟工程师学嵌入式开发》这本书最后的终极项目我反而觉得有说头
查看>>
博士的申请考核制
查看>>
那些硬件的初始化函数主要是在做些上什么?
查看>>
MAVLink学习之路05_MAVLink应用编程接口分析(也有讲STM32下的收发函数)
查看>>
找到了中文版的mavlink手册
查看>>
浅谈飞控开发的仿真功能
查看>>
我觉得在室内弄无人机开发装个防撞机架还是很有必要的,TBUS就做得很好。
查看>>
serial也是见到很多次了,似乎它就是一种串行通信协议
查看>>
TBUS的一些信息
查看>>
PX4+激光雷达在gazebo中仿真实现(古月居)
查看>>
专业和业余的区别就在于你在基础在基本功打磨练习花的时间
查看>>
通过mavlink实现自主航线的过程笔记
查看>>
Ardupilot飞控Mavlink代码学习
查看>>