×
1 Scegli i certificati EITC/EITCA
2 Impara e sostieni gli esami online
3 Ottieni la certificazione delle tue competenze IT

Conferma le tue capacità e competenze IT nell'ambito del quadro di certificazione IT europeo da qualsiasi parte del mondo completamente online.

Accademia EITCA

Standard di attestazione delle competenze digitali da parte dell'Istituto europeo di certificazione informatica volto a sostenere lo sviluppo della società digitale

ACCEDI AL TUO ACCOUNT

CREA UN ACCOUNT HAI DIMENTICATO LA PASSWORD?

HAI DIMENTICATO LA PASSWORD?

AAH, aspetta, ora ricordo!

CREA UN ACCOUNT

HAI GIÀ UN ACCOUNT?
EUROPEE ACCADEMIA DI CERTIFICAZIONE DELLE TECNOLOGIE INFORMATICHE - ATTESTARE LE TUE COMPETENZE DIGITALI
  • ISCRIVITI
  • ACCEDI
  • INFO

Accademia EITCA

Accademia EITCA

L'Istituto europeo di certificazione delle tecnologie dell'informazione - EITCI ASBL

Fornitore di certificazione

Istituto EITCI ASBL

Bruxelles, Unione Europea

Quadro normativo europeo di certificazione IT (EITC) a supporto della professionalità IT e della società digitale

  • CERTIFICATI
    • ACCADEMIE EITCA
      • CATALOGO ACCADEMIE EITCA<
      • GRAFICA INFORMATICA EITCA/CG
      • EITCA/IS SICUREZZA DELLE INFORMAZIONI
      • INFORMAZIONI AZIENDALI EITCA/BI
      • COMPETENZE CHIAVE EITCA/KC
      • EITCA/EG E-GOVERNMENT
      • SVILUPPO WEB EITCA/WD
      • EITCA/AI ARTIFICIAL INTELLIGENCE
    • CERTIFICATI EITC
      • CATALOGO DEI CERTIFICATI EITC<
      • CERTIFICATI DI GRAFICA INFORMATICA
      • CERTIFICATI DI WEB DESIGN
      • CERTIFICATI DI PROGETTAZIONE 3D
      • CERTIFICATI IT PER L'UFFICIO
      • CERTIFICATO BLOCKCHAIN ​​DI BITCOIN
      • CERTIFICATO WORDPRESS
      • CERTIFICATO PIATTAFORMA CLOUDNUOVA
    • CERTIFICATI EITC
      • CERTIFICATI INTERNET
      • CERTIFICATI DI CRIPTOGRAFIA
      • CERTIFICATI IT COMMERCIALI
      • CERTIFICATI TELEWORK
      • CERTIFICATI DI PROGRAMMAZIONE
      • CERTIFICATO DIGITALE DI RITRATTO
      • CERTIFICATI DI SVILUPPO WEB
      • CERTIFICATI DI APPRENDIMENTO PROFONDONUOVA
    • CERTIFICATI PER
      • AMMINISTRAZIONE PUBBLICA DELL'UE
      • INSEGNANTI ED EDUCATORI
      • PROFESSIONISTI DELLA SICUREZZA IT
      • DESIGNER E ARTISTI GRAFICI
      • Uomini d'affari e dirigenti
      • SVILUPPI DELLA BLOCKCHAIN
      • SVILUPPATORI WEB
      • ESPERTI DI CLOUD AINUOVA
  • FEATURED
  • SUSSIDIO
  • COME FUNZIONA
  •   IT ID
  • CHI SIAMO
  • CONTATTI
  • IL MIO ORDINE
    Il tuo ordine attuale è vuoto.
EITCIINSTITUTE
CERTIFIED

In che modo l'approccio di estrazione delle feature differisce dalla messa a punto nell'apprendimento tramite trasferimento con TensorFlow Hub e in quali situazioni risulta più conveniente?

by José Alfonsín Pena / Domenica, Novembre 30 2025 / Pubblicato in Intelligenza Artificiale, EITC/AI/GCML Google Cloud Machine Learning, Progressi nell'apprendimento automatico, Modalità TensorFlow Eager

Estrazione di feature vs. Fine-Tuning nell'apprendimento tramite trasferimento con TensorFlow Hub: una spiegazione completa

Il transfer learning è una tecnica fondamentale nel machine learning moderno, soprattutto quando si ha a che fare con dati o risorse computazionali limitate. TensorFlow Hub è una libreria che fornisce moduli di machine learning riutilizzabili, inclusi modelli pre-addestrati per attività come la classificazione di immagini, l'incorporamento di testo e altro ancora. Quando si sfruttano i modelli di TensorFlow Hub per il transfer learning, i professionisti in genere scelgono tra due approcci: estrazione di feature e fine-tuning. Ogni approccio presenta caratteristiche, vantaggi e casi d'uso distinti.

Estrazione di feature

Definizione e flusso di lavoro

L'estrazione di feature si riferisce all'utilizzo di un modello pre-addestrato, in genere addestrato su un ampio set di dati (come ImageNet per le immagini o Wikipedia per il testo), come estrattore di feature fisso. In questo approccio, i livelli principali del modello pre-addestrato rimangono invariati: i loro pesi vengono congelati e non aggiornati durante il processo di addestramento sul nuovo task. Solo i livelli superiori (spesso denominati "testa" o "classificatore") vengono aggiunti e addestrati per adattarsi allo specifico task o set di dati a valle.

Implementazione in TensorFlow Hub

Utilizzando TensorFlow Hub, l'estrazione delle feature comporta il caricamento di un modulo pre-addestrato e l'impostazione della sua proprietà "trainable" su "False". L'output del suo penultimo layer viene quindi immesso in nuovi layer specifici per l'attività, definiti dall'utente. Ad esempio, in uno scenario di classificazione di immagini, l'output della base convoluzionale pre-addestrata potrebbe essere collegato a un nuovo layer denso con unità corrispondenti al numero di classi target.

Esempio

Supponiamo di utilizzare un modello MobileNetV2 pre-addestrato su ImageNet tramite TensorFlow Hub per classificare immagini mediche (ad esempio, radiografie del torace per la diagnosi di polmonite). Il flusso di lavoro prevede:
– Caricamento del modello MobileNetV2 con trainable impostato su `False`.
– Aggiunta di un nuovo strato denso corrispondente al numero di classi (ad esempio, due per polmonite rispetto a non polmonite).
– Addestrare solo il nuovo livello denso sul set di dati delle immagini mediche.

Vantaggi

- Formazione più veloce: Poiché la maggior parte dei parametri del modello sono congelati, la retropropagazione avviene solo attraverso i nuovi livelli aggiunti, riducendo il sovraccarico computazionale.
- Rischio ridotto di sovradattamento: Con meno parametri addestrabili, è meno probabile che il modello si adatti eccessivamente, il che è particolarmente importante quando il set di dati di destinazione è piccolo.
- L'efficienza delle risorse: L'estrazione delle caratteristiche richiede meno risorse di memoria e di elaborazione.

limitazioni

- Adattabilità limitata: Il modello non è in grado di adattare le funzionalità pre-addestrate alle sfumature specifiche del nuovo set di dati, il che potrebbe portare a prestazioni non ottimali quando il nuovo dominio differisce in modo significativo dal dominio di addestramento originale.

Quando utilizzare l'estrazione delle funzionalità

- Dati limitati: Quando il set di dati di destinazione è piccolo, diventa rischioso aggiornare molti parametri.
- Limitazioni nelle risorse: Quando il tempo di formazione o le risorse di calcolo sono limitati.
- Compito target dissimile: Se il nuovo compito ha pochi campioni etichettati o è in qualche modo simile al dominio del modello pre-addestrato ma non identico, l'estrazione delle caratteristiche può produrre risultati ragionevoli senza grandi rischi di overfitting.

-

Ritocchi

Definizione e flusso di lavoro

La messa a punto fine prevede lo scongelamento di alcuni o tutti i livelli del modello pre-addestrato, consentendo l'aggiornamento dei relativi pesi tramite un ulteriore addestramento sul nuovo set di dati. Questo approccio consente al modello di adattare le rappresentazioni apprese in modo più specifico per l'attività, migliorando l'adattamento alle sfumature del dominio di destinazione.

Implementazione in TensorFlow Hub

Con TensorFlow Hub, la messa a punto richiede il caricamento del modulo pre-addestrato con `trainable` impostato su `True` (globalmente o per i layer selezionati). Dopo aver aggiunto layer specifici per l'attività, l'intero modello (o un sottoinsieme, spesso solo i layer successivi) viene addestrato sui nuovi dati. In genere, la fase iniziale di addestramento viene eseguita con il modello base congelato (estrazione delle feature), seguita da una seconda fase in cui alcuni layer superiori vengono sbloccati per la messa a punto.

Esempio

Proseguendo con lo scenario di classificazione delle immagini mediche:
– Caricare MobileNetV2 rimuovendo i livelli superiori, aggiungere un classificatore personalizzato e addestrare il classificatore con il modello di base congelato.
– Sblocca gli ultimi blocchi convoluzionali in MobileNetV2.
– Continuare l’addestramento (a un tasso di apprendimento inferiore) in modo che sia il modello di base sia il classificatore si adattino al nuovo set di dati.

Vantaggi

- Migliore adattamento alle attività: La messa a punto consente al modello di modificare le caratteristiche apprese, con il potenziale risultato di migliorare le prestazioni, soprattutto quando il dominio di destinazione è diverso da quello di origine.
- Precisione superiore: Quando sono disponibili dati etichettati in quantità sufficiente, la messa a punto può produrre significativi miglioramenti in termini di precisione.

limitazioni

- Maggiore rischio di sovradattamento: La messa a punto espone più parametri a un potenziale overfitting, soprattutto se il nuovo set di dati è piccolo.
- Aumento dei costi computazionali: L'addestramento di più parametri richiede più elaborazione e memoria, nonché tempi di addestramento più lunghi.
- È necessaria un'attenta messa a punto degli iperparametri: La messa a punto richiede in genere tassi di apprendimento più bassi e un attento monitoraggio per evitare dimenticanze catastrofiche (in cui le conoscenze pre-addestrate vanno perse).

Quando utilizzare la messa a punto fine

- Dati sufficienti: Quando il set di dati di destinazione è moderatamente ampio, fornire campioni sufficienti affinché il modello possa generalizzare bene anche quando vengono aggiornati molti parametri.
- Domini simili: Quando i domini di origine e di destinazione sono simili, la messa a punto spesso porta a prestazioni migliori.
- Ottimizzazione delle prestazioni: Quando è fondamentale massimizzare le prestazioni in un nuovo compito e le risorse di calcolo consentono una formazione più intensa.

-

Confronto dettagliato

AspettoEstrazione di featureRitocchi
Parametri addestrabiliSolo i livelli appena aggiuntiAlcuni o tutti i livelli del modello base + nuovi livelli
Tempo di allenamentoMinorePiù a lungo
Rischio di overfittingInferiore (meno parametri)Più alto (più parametri, soprattutto con set di dati di piccole dimensioni)
Requisiti di risorseAbbassareMaggiore
Massimale di prestazioneA volte inferiore, soprattutto per compiti diversiPotenzialmente più alto, soprattutto per attività simili e set di dati più grandi
Sforzo di implementazionePiù semplice, meno iperparametri da regolarePiù complesso, richiede un attento congelamento/scongelamento degli strati e una messa a punto

-

Esempi pratici

1. Classificazione delle immagini: cani contro gatti
– *Estrazione di caratteristiche:* utilizzando un EfficientNet pre-addestrato su ImageNet, congelare tutti i livelli, aggiungere un nuovo livello denso per la classificazione binaria e addestrare su un set di dati di cani di piccola taglia rispetto a gatti (ad esempio, 1000 immagini). Adatto quando i dati etichettati sono scarsi.
– *Fine-Tuning:* Dopo aver addestrato il nuovo classificatore, scongela i primi blocchi convoluzionali di EfficientNet e continua l'addestramento con un tasso di apprendimento ridotto. Adatto se si hanno migliaia di immagini e si desidera massimizzare la precisione.

2. Classificazione del testo: analisi del sentimento
– *Estrazione delle funzionalità:* utilizza un modello BERT pre-addestrato da TensorFlow Hub, estrai gli incorporamenti e addestra un nuovo classificatore per il sentiment positivo/negativo con un numero ridotto di tweet etichettati.
– *Fine-Tuning:* Sblocca il codificatore BERT e lo ottimizza sul dataset del sentiment, migliorando l'adattamento alle peculiarità del linguaggio dei social media. Efficace se è disponibile un dataset ampio e diversificato.

-

Considerazioni tecniche in modalità Eager di TensorFlow

La modalità Eager di TensorFlow semplifica i grafici di calcolo dinamici, rendendo il debug e la prototipazione più intuitivi. Sia l'estrazione delle feature che la messa a punto sono compatibili con la modalità Eager, ma le sfumature di implementazione differiscono:

- Estrazione delle funzioni: Il modulo è racchiuso in un layer Keras non addestrabile. I gradienti vengono calcolati solo per i nuovi layer. In modalità Eager, il flusso di esecuzione è più trasparente, consentendo un'ispezione passo-passo.
- Ritocchi: Il modulo (o le sue parti) viene impostato come addestrabile. I gradienti vengono propagati attraverso i livelli selezionati. La modalità Eager consente una facile sperimentazione, ad esempio sbloccando selettivamente i livelli e monitorando il flusso del gradiente.

Esempio: Regolazione fine selettiva dello strato in modalità Eager

python
import tensorflow as tf
import tensorflow_hub as hub

# Load pre-trained model as a Keras layer
feature_extractor = hub.KerasLayer("https://tfhub.dev/google/imagenet/mobilenet_v2_100_224/feature_vector/4",
                                   input_shape=(224,224,3),
                                   trainable=False)

model = tf.keras.Sequential([
    feature_extractor,
    tf.keras.layers.Dense(2, activation='softmax')
])

# Feature extraction: only the Dense layer is trainable
model.compile(optimizer='adam', loss='categorical_crossentropy', metrics=['accuracy'])

# For fine-tuning: set trainable=True for some layers
feature_extractor.trainable = True
# Optionally, freeze all but last N layers
for layer in feature_extractor.layers[:-10]:
    layer.trainable = False

# Recompile and retrain with a lower learning rate
model.compile(optimizer=tf.keras.optimizers.Adam(1e-5),
              loss='categorical_crossentropy',
              metrics=['accuracy'])

-

Best Practices

- Inizia con l'estrazione delle caratteristiche: Iniziare allenando solo la nuova testa. Valutare le prestazioni di base.
- Scongelamento incrementale: Scongelare gradualmente gli strati superiori se è necessaria una maggiore capacità e non si osserva un overfitting.
- Utilizzare l'arresto anticipato: Monitorare le metriche di convalida per evitare il sovraadattamento durante la messa a punto.
- Regola i tassi di apprendimento: Utilizzare un tasso di apprendimento inferiore durante la messa a punto per evitare aggiornamenti dei parametri ampi e destabilizzanti.

-

paragrafo

L'estrazione di feature e il fine-tuning rappresentano due strategie distinte per sfruttare i modelli TensorFlow Hub pre-addestrati nei flussi di lavoro di transfer learning. L'estrazione di feature enfatizza l'efficienza e riduce il rischio di overfitting congelando il modello pre-addestrato e addestrando solo i nuovi livelli, rendendolo adatto a situazioni con dati o risorse computazionali limitate. Il fine-tuning, d'altra parte, consente un maggiore adattamento del modello aggiornando alcuni o tutti i pesi del modello pre-addestrato, offrendo prestazioni migliori quando sono disponibili dati e potenza computazionale sufficienti. La scelta tra questi approcci dovrebbe considerare le dimensioni del dataset, la similarità con il dominio di training del modello originale e le risorse disponibili. Comprendere i punti di forza e i compromessi di ciascun metodo consente ai professionisti di creare soluzioni di transfer learning efficaci ed efficienti utilizzando TensorFlow Hub, in particolare quando si lavora in modo interattivo o si crea un prototipo con TensorFlow Eager Mode.

Altre domande e risposte recenti riguardanti Progressi nell'apprendimento automatico:

  • In che misura Kubeflow semplifica realmente la gestione dei flussi di lavoro di apprendimento automatico su Kubernetes, considerando la maggiore complessità della sua installazione, manutenzione e la curva di apprendimento per i team multidisciplinari?
  • In che modo un esperto di Colab può ottimizzare l'uso di GPU/TPU libere, gestire la persistenza dei dati e le dipendenze tra le sessioni e garantire riproducibilità e collaborazione in progetti di data science su larga scala?
  • In che modo la somiglianza tra i set di dati di origine e di destinazione, insieme alle tecniche di regolarizzazione e alla scelta del tasso di apprendimento, influenzano l'efficacia dell'apprendimento per trasferimento applicato tramite TensorFlow Hub?
  • Cosa intendi per apprendimento tramite trasferimento e come pensi che si relazioni ai modelli pre-addestrati offerti da TensorFlow Hub?
  • Se il tuo laptop impiega ore per addestrare un modello, come potresti usare una VM con GPU e JupyterLab per accelerare il processo e organizzare le dipendenze senza danneggiare il tuo ambiente?
  • Se utilizzo già i notebook in locale, perché dovrei usare JupyterLab su una VM con GPU? Come posso gestire dipendenze (pip/conda), dati e permessi senza compromettere il mio ambiente?
  • Qualcuno senza esperienza in Python e con nozioni di base di intelligenza artificiale può usare TensorFlow.js per caricare un modello convertito da Keras, interpretare il file model.json e gli shard e garantire previsioni interattive in tempo reale nel browser?
  • Come può un esperto di intelligenza artificiale, ma alle prime armi con la programmazione, sfruttare i vantaggi di TensorFlow.js?
  • Qual è il flusso di lavoro completo per preparare e addestrare un modello di classificazione delle immagini personalizzato con AutoML Vision, dalla raccolta dei dati alla distribuzione del modello?
  • In che modo uno scienziato dei dati può sfruttare Kaggle per applicare modelli econometrici avanzati, documentare rigorosamente i set di dati e collaborare efficacemente a progetti condivisi con la community?

Visualizza altre domande e risposte in Avanzamento nell'apprendimento automatico

Altre domande e risposte:

  • Settore: Intelligenza Artificiale
  • programma: EITC/AI/GCML Google Cloud Machine Learning (vai al programma di certificazione)
  • Lezione: Progressi nell'apprendimento automatico (vai alla lezione correlata)
  • Argomento: Modalità TensorFlow Eager (vai all'argomento correlato)
Etichettato sotto: Intelligenza Artificiale, Modalità impaziente, Estrazione di feature, Ritocchi, Hub TensorFlow, Trasferimento di apprendimento
Casa » Intelligenza Artificiale » EITC/AI/GCML Google Cloud Machine Learning » Progressi nell'apprendimento automatico » Modalità TensorFlow Eager » » In che modo l'approccio di estrazione delle feature differisce dalla messa a punto nell'apprendimento tramite trasferimento con TensorFlow Hub e in quali situazioni risulta più conveniente?

Centro di certificazione

MENU UTENTE

  • Il Mio Account

CATEGORIA DI CERTIFICATI

  • Certificazione EITC (105)
  • Certificazione EITCA (9)

Che cosa stai cercando?

  • Introduzione
  • Come funziona?
  • Accademie EITCA
  • Sovvenzione EITCI DSJC
  • Catalogo completo dell'EITC
  • Il Suo ordine
  • In Evidenza
  •   IT ID
  • Recensioni EITCA (Publ. media)
  • Chi siamo
  • Contatti

EITCA Academy fa parte del framework europeo di certificazione IT

Il quadro europeo di certificazione IT è stato istituito nel 2008 come standard europeo e indipendente dai fornitori per la certificazione online ampiamente accessibile delle abilità e delle competenze digitali in molte aree delle specializzazioni digitali professionali. Il quadro EITC è disciplinato dal Istituto europeo di certificazione IT (EITCI), un'autorità di certificazione senza scopo di lucro che sostiene la crescita della società dell'informazione e colma il divario di competenze digitali nell'UE.

Idoneità per l'Accademia EITCA 90% Sovvenzione EITCI DSJC

90% delle tasse EITCA Academy sovvenzionato in iscrizione da

    Ufficio di segreteria dell'Accademia EITCA

    Istituto europeo di certificazione informatica ASBL
    Bruxelles, Belgio, Unione Europea

    Operatore del framework di certificazione EITC/EITCA
    Standard europeo di certificazione IT applicabile
    accesso a form di contatto oppure chiama +32 25887351

    Segui EITCI su X
    Visita EITCA Academy su Facebook
    Interagisci con EITCA Academy su LinkedIn
    Guarda i video EITCI e EITCA su YouTube

    Finanziato dall'Unione Europea

    Finanziato dalla Fondo europeo di sviluppo regionale (FESR) e Fondo sociale europeo (FSE) in una serie di progetti dal 2007, attualmente governati dal Istituto europeo di certificazione IT (EITCI) dal 2008

    Politica sulla sicurezza delle informazioni | Politica DSRRM e GDPR | Politica di protezione dei dati | Registro delle attività di trattamento | Politica HSE | Politica anticorruzione | Politica sulla schiavitù moderna

    Traduci automaticamente nella tua lingua

    Termini e condizioni | Politica sulla Privacy
    Accademia EITCA
    • Accademia EITCA sui social media
    Accademia EITCA


    © 2008-2026  Istituto Europeo di Certificazione IT
    Bruxelles, Belgio, Unione Europea

    TOP
    CHATTA CON IL SUPPORTO
    Hai qualche domanda?
    Ti risponderemo qui e via email. La tua conversazione verrà tracciata tramite un token di supporto.