Apprendimento approfondito con Keras - Importazione di librerie

Per prima cosa importiamo le varie librerie richieste dal codice nel nostro progetto.

Gestione e stampa di array

Come tipico, usiamo numpy per la gestione degli array e matplotlibper tracciare. Queste librerie vengono importate nel nostro progetto utilizzando quanto segueimport dichiarazioni

import numpy as np
import matplotlib
import matplotlib.pyplot as plot

Soppressione degli avvisi

Poiché sia ​​Tensorflow che Keras continuano a rivedere, se non sincronizzi le loro versioni appropriate nel progetto, in fase di esecuzione vedrai molti errori di avviso. Poiché distraggono la tua attenzione dall'apprendimento, sopprimeremo tutti gli avvertimenti in questo progetto. Questo viene fatto con le seguenti righe di codice:

# silent all warnings
import os
os.environ['TF_CPP_MIN_LOG_LEVEL']='3'
import warnings
warnings.filterwarnings('ignore')
from tensorflow.python.util import deprecation
deprecation._PRINT_DEPRECATION_WARNINGS = False

Keras

Usiamo le librerie di Keras per importare i set di dati. Useremo il filemnistset di dati per cifre scritte a mano. Importiamo il pacchetto richiesto utilizzando la seguente dichiarazione

from keras.datasets import mnist

Definiremo la nostra rete neurale di deep learning utilizzando i pacchetti Keras. Importiamo il fileSequential, Dense, Dropout e Activationpacchetti per definire l'architettura di rete. Noi usiamoload_modelpacchetto per salvare e recuperare il nostro modello. Usiamo anchenp_utilsper alcune utilità di cui abbiamo bisogno nel nostro progetto. Queste importazioni vengono eseguite con le seguenti istruzioni di programma:

from keras.models import Sequential, load_model
from keras.layers.core import Dense, Dropout, Activation
from keras.utils import np_utils

Quando esegui questo codice, vedrai un messaggio sulla console che dice che Keras utilizza TensorFlow nel back-end. Lo screenshot in questa fase è mostrato qui -

Ora, poiché abbiamo tutte le importazioni richieste dal nostro progetto, procederemo alla definizione dell'architettura per la nostra rete di Deep Learning.