×
1 Scegli i certificati EITC/EITCA
2 Impara e sostieni gli esami online
3 Ottieni la certificazione delle tue competenze IT

Conferma le tue capacità e competenze IT nell'ambito del quadro di certificazione IT europeo da qualsiasi parte del mondo completamente online.

Accademia EITCA

Standard di attestazione delle competenze digitali da parte dell'Istituto europeo di certificazione informatica volto a sostenere lo sviluppo della società digitale

ACCEDI AL TUO ACCOUNT

CREA UN ACCOUNT HAI DIMENTICATO LA PASSWORD?

HAI DIMENTICATO LA PASSWORD?

AAH, aspetta, ora ricordo!

CREA UN ACCOUNT

HAI GIÀ UN ACCOUNT?
EUROPEE ACCADEMIA DI CERTIFICAZIONE DELLE TECNOLOGIE INFORMATICHE - ATTESTARE LE TUE COMPETENZE DIGITALI
  • ISCRIVITI
  • ACCEDI
  • INFO

Accademia EITCA

Accademia EITCA

L'Istituto europeo di certificazione delle tecnologie dell'informazione - EITCI ASBL

Fornitore di certificazione

Istituto EITCI ASBL

Bruxelles, Unione Europea

Quadro normativo europeo di certificazione IT (EITC) a supporto della professionalità IT e della società digitale

  • CERTIFICATI
    • ACCADEMIE EITCA
      • CATALOGO ACCADEMIE EITCA<
      • GRAFICA INFORMATICA EITCA/CG
      • EITCA/IS SICUREZZA DELLE INFORMAZIONI
      • INFORMAZIONI AZIENDALI EITCA/BI
      • COMPETENZE CHIAVE EITCA/KC
      • EITCA/EG E-GOVERNMENT
      • SVILUPPO WEB EITCA/WD
      • EITCA/AI ARTIFICIAL INTELLIGENCE
    • CERTIFICATI EITC
      • CATALOGO DEI CERTIFICATI EITC<
      • CERTIFICATI DI GRAFICA INFORMATICA
      • CERTIFICATI DI WEB DESIGN
      • CERTIFICATI DI PROGETTAZIONE 3D
      • CERTIFICATI IT PER L'UFFICIO
      • CERTIFICATO BLOCKCHAIN ​​DI BITCOIN
      • CERTIFICATO WORDPRESS
      • CERTIFICATO PIATTAFORMA CLOUDNUOVA
    • CERTIFICATI EITC
      • CERTIFICATI INTERNET
      • CERTIFICATI DI CRIPTOGRAFIA
      • CERTIFICATI IT COMMERCIALI
      • CERTIFICATI TELEWORK
      • CERTIFICATI DI PROGRAMMAZIONE
      • CERTIFICATO DIGITALE DI RITRATTO
      • CERTIFICATI DI SVILUPPO WEB
      • CERTIFICATI DI APPRENDIMENTO PROFONDONUOVA
    • CERTIFICATI PER
      • AMMINISTRAZIONE PUBBLICA DELL'UE
      • INSEGNANTI ED EDUCATORI
      • PROFESSIONISTI DELLA SICUREZZA IT
      • DESIGNER E ARTISTI GRAFICI
      • Uomini d'affari e dirigenti
      • SVILUPPI DELLA BLOCKCHAIN
      • SVILUPPATORI WEB
      • ESPERTI DI CLOUD AINUOVA
  • FEATURED
  • SUSSIDIO
  • COME FUNZIONA
  •   IT ID
  • CHI SIAMO
  • CONTATTI
  • IL MIO ORDINE
    Il tuo ordine attuale è vuoto.
EITCIINSTITUTE
CERTIFIED

Come interagiscono Keras e TensorFlow con Pandas e NumPy?

by Andrew Eliasz / Mercoledì, Dicembre 24 2025 / Pubblicato in Intelligenza Artificiale, EITC/AI/GCML Google Cloud Machine Learning, Primi passi nel Machine Learning, Stimatori chiari e semplici

Keras e TensorFlow, due librerie ben integrate nell'ecosistema del machine learning, vengono spesso utilizzate insieme a Pandas e NumPy, che forniscono strumenti robusti per la manipolazione dei dati e il calcolo numerico. Comprendere come queste librerie interagiscono è fondamentale per chi intraprende progetti di machine learning, soprattutto quando si utilizzano i servizi di Google Cloud Machine Learning o piattaforme simili.

Keras e TensorFlow: ruoli e integrazione

Keras è un'API di reti neurali di alto livello, scritta in Python, che funziona su framework di livello inferiore come TensorFlow. Keras semplifica il processo di definizione, addestramento e valutazione dei modelli di deep learning, offrendo un'interfaccia intuitiva e astraendo molte delle complessità dell'utilizzo diretto di TensorFlow. TensorFlow, sviluppato da Google, è una piattaforma open source completa per il machine learning. Fornisce API sia di alto che di basso livello per la creazione e l'implementazione di modelli di machine learning su larga scala.

A partire da TensorFlow 2.x, Keras è strettamente integrato in TensorFlow ed è accessibile tramite `tf.keras`. Ciò significa che quando un utente scrive codice per la creazione di modelli con `tf.keras`, sfrutta il backend computazionale di TensorFlow per l'esecuzione, l'ottimizzazione e il deployment dei modelli.

NumPy: fondamenti per il calcolo numerico

NumPy è la libreria fondamentale per il calcolo scientifico in Python. Fornisce un potente oggetto array N-dimensionale, chiamato ndarray, e una suite di funzioni per eseguire operazioni matematiche rapide su grandi set di dati. Molte operazioni di apprendimento automatico, come l'algebra lineare, la manipolazione di matrici e i calcoli vettoriali, sono gestite in modo efficiente da NumPy.

Pandas: manipolazione e preparazione dei dati

Pandas integra NumPy offrendo strutture dati di alto livello come i DataFrame, particolarmente utili per la manipolazione, la pulizia, l'esplorazione e l'ingegneria delle feature dei dati tabulari. I DataFrame semplificano la gestione dei valori mancanti, la codifica delle variabili categoriali e l'esecuzione di aggregazioni o raggruppamenti, tutte attività comuni nella preparazione dei dati per i modelli di apprendimento automatico.

Flusso di lavoro: interazione tra le librerie

Quando si creano modelli di machine learning con Keras e TensorFlow, Pandas e NumPy svolgono un ruolo fondamentale durante la preparazione dei dati e l'addestramento del modello. Il flusso di lavoro tipico si svolge come segue:

1. Inserimento dei dati ed esplorazione iniziale (Pandas)
I dati vengono spesso caricati da fonti esterne (CSV, database SQL, Google BigQuery, ecc.) utilizzando le potenti funzioni `read_*` di Pandas. I DataFrame forniscono un'interfaccia intuitiva per visualizzare, filtrare e riassumere i dati.

python
   import pandas as pd

   df = pd.read_csv('dataset.csv')
   print(df.head())
   

2. Pulizia dei dati e ingegneria delle funzionalità (Pandas)
I DataFrame vengono utilizzati per gestire i valori mancanti, codificare le feature categoriali, normalizzare le feature numeriche e generare nuove feature. Questi passaggi sono importanti per ottimizzare le prestazioni del modello.

python
   df['feature_normalized'] = (df['feature'] - df['feature'].mean())/df['feature'].std()
   df['category_encoded'] = df['category'].astype('category').cat.codes
   

3. Conversione in array NumPy
Mentre i DataFrame di Pandas sono efficienti per la manipolazione dei dati, i modelli Keras e TensorFlow si aspettano dati sotto forma di array NumPy o tensori TensorFlow. L'attributo `values` o il metodo `.to_numpy()` dei DataFrame facilitano questa conversione.

python
   import numpy as np

   X = df[['feature1', 'feature2', 'feature_normalized']].to_numpy()
   y = df['label'].to_numpy()
   

4. Creazione e addestramento di modelli (Keras/TensorFlow)
Gli array NumPy vengono passati ai metodi del modello Keras per addestrare reti neurali o altri stimatori di apprendimento automatico. I modelli Keras accettano gli array NumPy direttamente come input per l'addestramento (`fit`), la valutazione (`evaluate`) e la previsione (`predict`).

python
   import tensorflow as tf
   from tensorflow import keras

   model = keras.Sequential([
       keras.layers.Dense(64, activation='relu', input_shape=(X.shape[1],)),
       keras.layers.Dense(1, activation='sigmoid')
   ])

   model.compile(optimizer='adam', loss='binary_crossentropy', metrics=['accuracy'])
   model.fit(X, y, epochs=10, batch_size=32)
   

5. Pipeline di dati avanzate (tf.data e integrazione)
Per set di dati più grandi o flussi di lavoro di produzione, l'API `tf.data` di TensorFlow può essere utilizzata per creare pipeline di dati efficienti. I DataFrame Pandas o gli array NumPy possono essere convertiti in oggetti `tf.data.Dataset`, che supportano l'elaborazione batch, lo shuffling e il prefetching parallelo.

python
   dataset = tf.data.Dataset.from_tensor_slices((X, y))
   dataset = dataset.shuffle(buffer_size=1024).batch(32)
   model.fit(dataset, epochs=10)
   

Compatibilità e tipi di dati

Keras e TensorFlow sono altamente compatibili con NumPy, poiché entrambi sono progettati per il calcolo numerico e utilizzano paradigmi simili per l'archiviazione e la manipolazione di dati multidimensionali. Gli array di NumPy (`ndarray`) e i tensori di TensorFlow possono spesso essere intercambiati, poiché TensorFlow fornisce utilità come `tf.convert_to_tensor` e `tf.make_ndarray` per facilitare la conversione.

I Pandas DataFrames, sebbene non siano direttamente accettati da Keras o TensorFlow, possono essere convertiti senza problemi in array NumPy. Questa interoperabilità consente agli utenti di sfruttare i punti di forza di ciascuna libreria nelle diverse fasi del flusso di lavoro di machine learning.

Gestione dei dati categoriali e ingegneria delle funzionalità

Un aspetto degno di nota nella preparazione dei dati per i modelli Keras riguarda la gestione delle variabili categoriali. Pandas fornisce metodi come `get_dummies` per la codifica one-hot o `.astype('category').cat.codes` per la codifica delle etichette. Queste trasformazioni convertono le colonne categoriali in rappresentazioni numeriche che Keras può elaborare. Per feature engineering più complesse, Pandas può essere utilizzato per creare termini di interazione, feature polinomiali o statistiche aggregate.

Scalabilità e normalizzazione

Standardizzazione e normalizzazione sono fasi comuni di pre-elaborazione, che garantiscono che le caratteristiche contribuiscano in modo equo al processo di apprendimento del modello. Pandas può essere utilizzato per applicare queste trasformazioni, oppure gli utenti possono utilizzare le utility di pre-elaborazione di scikit-learn e quindi convertire i risultati in array NumPy per l'addestramento del modello.

python
from sklearn.preprocessing import StandardScaler

scaler = StandardScaler()
X_scaled = scaler.fit_transform(X)

Valutazione del modello e gestione dell'output

Dopo l'addestramento, le previsioni generate dai modelli Keras vengono restituite come array NumPy. Questi possono essere riconvertiti in DataFrame Pandas per semplificare l'analisi, la visualizzazione o l'ulteriore elaborazione.

python
predictions = model.predict(X_test)
predictions_df = pd.DataFrame(predictions, columns=['predicted_label'])

Questo flusso bidirezionale (dati da Pandas a NumPy a Keras/TensorFlow e ritorno) consente una pipeline di apprendimento automatico coesa.

Contesto di apprendimento automatico di Google Cloud

Quando si lavora con i servizi di Google Cloud Machine Learning, queste librerie rimangono fondamentali. I dati possono essere importati da Google Cloud Storage, BigQuery o altre fonti di dati cloud in Pandas DataFrames. I passaggi successivi di pulizia, elaborazione e conversione in array NumPy rimangono coerenti. I modelli TensorFlow e Keras possono essere creati localmente e quindi distribuiti nel cloud utilizzando strumenti come TensorFlow Serving o Google AI Platform. La possibilità di serializzare modelli e dati in formati compatibili con queste librerie garantisce portabilità e scalabilità tra ambienti locali e cloud.

Stimatori semplici e chiari: unire semplicità e potenza

Sebbene Keras e TensorFlow siano spesso associati al deep learning, offrono anche stimatori semplici adatti per semplici attività di regressione o classificazione. Ad esempio, la regressione logistica o reti dense di base possono essere definite con un codice minimo. L'integrazione con Pandas e NumPy garantisce che anche gli utenti con meno esperienza nel machine learning possano creare, addestrare e distribuire modelli performanti con un flusso di lavoro chiaro e conciso.

– *Esempio: Classificazione binaria semplice*

Supponiamo che un set di dati contenga informazioni sui clienti bancari e un'etichetta binaria che indica se ciascun cliente ha sottoscritto un deposito a termine. Utilizzando Pandas, il set di dati viene caricato e preelaborato; con NumPy, vengono generati array per l'input del modello; e con Keras (tramite TensorFlow), un semplice modello di rete neurale viene addestrato per prevedere il risultato.

python
import pandas as pd
import numpy as np
import tensorflow as tf
from tensorflow import keras

# Load and preprocess data
df = pd.read_csv('bank_marketing.csv')
X = df[['age', 'balance', 'duration']].to_numpy()
y = (df['y'] == 'yes').astype(int).to_numpy()

# Build and train model
model = keras.Sequential([
    keras.layers.Dense(1, activation='sigmoid', input_shape=(X.shape[1],))
])
model.compile(optimizer='adam', loss='binary_crossentropy', metrics=['accuracy'])
model.fit(X, y, epochs=5, batch_size=16)

Questo esempio dimostra la semplice integrazione di questi strumenti, consentendo agli utenti di concentrarsi sulla logica dell'attività di apprendimento automatico anziché sulle complessità della gestione dei dati o dei calcoli.

Migliori Pratiche e Considerazioni

1. Coerenza dei dati: Assicurarsi che i dati passati ai modelli Keras corrispondano alla forma e al tipo previsti. Dimensioni o tipi di dati incoerenti possono causare errori.
2. Gestione della memoria: Quando si lavora con set di dati di grandi dimensioni, può essere utile utilizzare generatori batch o l'API `tf.data` per evitare di caricare l'intero set di dati nella memoria.
3. Salvataggio e caricamento del modello: I modelli Keras addestrati possono essere salvati e caricati utilizzando le funzioni `.save()` e `keras.models.load_model()`. Input e output mantengono la compatibilità con gli array NumPy, facilitando la riproducibilità e l'implementazione.
4. Integrazione senza problemi: L'interoperabilità tra Pandas, NumPy, Keras e TensorFlow semplifica il flusso di lavoro del machine learning. Gli utenti possono spostare liberamente i dati tra queste librerie in base alle proprie esigenze, sfruttando le caratteristiche uniche di ciascuna.

Esempio: flusso di lavoro end-to-end

Una tipica pipeline di apprendimento automatico che utilizza queste librerie potrebbe apparire come segue:

python
import pandas as pd
import numpy as np
import tensorflow as tf
from tensorflow import keras
from sklearn.model_selection import train_test_split
from sklearn.preprocessing import StandardScaler

# Step 1: Load data
df = pd.read_csv('housing.csv')

# Step 2: Clean and preprocess
df = df.dropna()
X = df[['feature1', 'feature2', 'feature3']].to_numpy()
y = df['price'].to_numpy()

# Step 3: Train-test split
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)

# Step 4: Scale features
scaler = StandardScaler()
X_train_scaled = scaler.fit_transform(X_train)
X_test_scaled = scaler.transform(X_test)

# Step 5: Build and train model
model = keras.Sequential([
    keras.layers.Dense(32, activation='relu', input_shape=(X_train_scaled.shape[1],)),
    keras.layers.Dense(1)
])
model.compile(optimizer='adam', loss='mse', metrics=['mae'])
model.fit(X_train_scaled, y_train, epochs=10, batch_size=32, validation_split=0.1)

# Step 6: Evaluate model
loss, mae = model.evaluate(X_test_scaled, y_test)
print(f"Test MAE: {mae}")

# Step 7: Make predictions
predictions = model.predict(X_test_scaled)
results_df = pd.DataFrame({'Actual': y_test, 'Predicted': predictions.flatten()})
print(results_df.head())

Questo esempio illustra l'uso sequenziale di Pandas per la gestione dei dati, NumPy per gli array numerici, scikit-learn per la pre-elaborazione e la suddivisione, e Keras/TensorFlow per lo sviluppo e l'inferenza dei modelli. Ogni libreria svolge un ruolo distinto e complementare, contribuendo a un flusso di lavoro fluido per lo sviluppo, l'addestramento e la distribuzione di modelli di machine learning.

Conclusione Paragrafo

La combinazione di Keras, TensorFlow, Pandas e NumPy crea un potente ecosistema per le attività di machine learning. Ogni libreria offre funzionalità uniche: Keras e TensorFlow per la definizione e l'addestramento dei modelli; Pandas per la manipolazione e la pulizia dei dati; e NumPy per un calcolo numerico efficiente. La loro interoperabilità consente ai professionisti di costruire flussi di lavoro di machine learning robusti, efficienti e manutenibili, sia per semplici stimatori che per architetture di deep learning più complesse.

Altre domande e risposte recenti riguardanti EITC/AI/GCML Google Cloud Machine Learning:

  • Gli iperparametri m e b sono quelli del video? O di altri?
  • Di quali dati ho bisogno per l'apprendimento automatico? Immagini, testo?
  • Risposta in slovacco alla domanda "Come posso sapere quale tipo di apprendimento è più adatto alla mia situazione?"
  • Devo installare TensorFlow?
  • Come posso sapere quale tipo di apprendimento è più adatto alla mia situazione?
  • In che cosa differiscono Vertex AI e AI Platform API?
  • Qual è il modo più efficace per creare dati di test per l'algoritmo di apprendimento automatico? Possiamo utilizzare dati sintetici?
  • In quale fase dell'apprendimento si può raggiungere il 100%?
  • Come posso sapere se il mio set di dati è sufficientemente rappresentativo per costruire un modello con informazioni vaste e senza distorsioni?
  • I livelli di simulazione basati su PINN e di knowledge graph dinamici possono essere utilizzati come struttura insieme a un livello di ottimizzazione in un modello di ambiente competitivo? È una soluzione adatta per set di dati reali ambigui e di piccole dimensioni?

Visualizza altre domande e risposte in EITC/AI/GCML Google Cloud Machine Learning

Altre domande e risposte:

  • Settore: Intelligenza Artificiale
  • programma: EITC/AI/GCML Google Cloud Machine Learning (vai al programma di certificazione)
  • Lezione: Primi passi nel Machine Learning (vai alla lezione correlata)
  • Argomento: Stimatori chiari e semplici (vai all'argomento correlato)
Etichettato sotto: Intelligenza Artificiale, Preparazione dei dati, Pre-elaborazione dei dati, Keras, Flusso di lavoro di apprendimento automatico, Modello di formazione, NumPy, Pandas, Librerie Python, TensorFlow
Casa » Intelligenza Artificiale » EITC/AI/GCML Google Cloud Machine Learning » Primi passi nel Machine Learning » Stimatori chiari e semplici » » Come interagiscono Keras e TensorFlow con Pandas e NumPy?

Centro di certificazione

MENU UTENTE

  • Il Mio Account

CATEGORIA DI CERTIFICATI

  • Certificazione EITC (105)
  • Certificazione EITCA (9)

Che cosa stai cercando?

  • Introduzione
  • Come funziona?
  • Accademie EITCA
  • Sovvenzione EITCI DSJC
  • Catalogo completo dell'EITC
  • Il Suo ordine
  • In Evidenza
  •   IT ID
  • Recensioni EITCA (Publ. media)
  • Chi siamo
  • Contatti

EITCA Academy fa parte del framework europeo di certificazione IT

Il quadro europeo di certificazione IT è stato istituito nel 2008 come standard europeo e indipendente dai fornitori per la certificazione online ampiamente accessibile delle abilità e delle competenze digitali in molte aree delle specializzazioni digitali professionali. Il quadro EITC è disciplinato dal Istituto europeo di certificazione IT (EITCI), un'autorità di certificazione senza scopo di lucro che sostiene la crescita della società dell'informazione e colma il divario di competenze digitali nell'UE.

Idoneità per l'Accademia EITCA 90% Sovvenzione EITCI DSJC

90% delle tasse EITCA Academy sovvenzionato in iscrizione da

    Ufficio di segreteria dell'Accademia EITCA

    Istituto europeo di certificazione informatica ASBL
    Bruxelles, Belgio, Unione Europea

    Operatore del framework di certificazione EITC/EITCA
    Standard europeo di certificazione IT applicabile
    accesso a form di contatto oppure chiama +32 25887351

    Segui EITCI su X
    Visita EITCA Academy su Facebook
    Interagisci con EITCA Academy su LinkedIn
    Guarda i video EITCI e EITCA su YouTube

    Finanziato dall'Unione Europea

    Finanziato dalla Fondo europeo di sviluppo regionale (FESR) e Fondo sociale europeo (FSE) in una serie di progetti dal 2007, attualmente governati dal Istituto europeo di certificazione IT (EITCI) dal 2008

    Politica sulla sicurezza delle informazioni | Politica DSRRM e GDPR | Politica di protezione dei dati | Registro delle attività di trattamento | Politica HSE | Politica anticorruzione | Politica sulla schiavitù moderna

    Traduci automaticamente nella tua lingua

    Termini e condizioni | Politica sulla Privacy
    Accademia EITCA
    • Accademia EITCA sui social media
    Accademia EITCA


    © 2008-2026  Istituto Europeo di Certificazione IT
    Bruxelles, Belgio, Unione Europea

    TOP
    CHATTA CON IL SUPPORTO
    Hai qualche domanda?
    Ti risponderemo qui e via email. La tua conversazione verrà tracciata tramite un token di supporto.