Uploaded by Andrea Tartaglione

sbobine TEORIA BIONANO 21-22

advertisement
Moschetta/Cangelosi
01_BIONANO (Ciardelli)
02/03/2022
CHE COSA SONO LE NANOTECNOLOGIE?
Richard Feynaman, il Padre della Nanotecnologia, il 29 dicembre 1959 tenne un famoso discorso:
"Ciò di cui voglio parlare è il problema di manipolare e controllare le cose su una piccola scala. […]
Ma non mi spaventa affrontare anche la questione finale, cioè se -in un lontano futuro -potremo
sistemare gli atomi nel modo in cui vogliamo; proprio i singoli atomi, al fondo della scala
dimensionale! Per quanto ne so, i principi della fisica non impediscono di manipolare le cose atomo
per atomo. Non è un tentativo di violare alcuna legge; è qualcosa che in principio può essere fatto,
ma in pratica non è successo perché siamo troppo grandi’’ (Adesso queste cose si fatto, l’IBM di
Zurigo hanno dei manipolatori, il microscopio ASTM, che per mette di spostare gli atomi e farli,
anche, reagire tra loro) = si ha difficoltà nel manipolare su questa scala; durante il corso capiremo
da cosa derivano queste difficoltà e come in parte siano state superate negli anni.
L’ AVVENTO DELLE NANOTECNOLOGIE
1959 R. Feynman prevede la nascita della nanotecnologia
1974 Primo dispositivo elettronico molecolare brevettato (IBM)
1985 Scoperta dei fullereni
1986 Invenzione del microscopio ad effetto tunnel (IBM-Zurigo)→ microscopio che riusciva a vedere
in un certo qual modo i singoli atomi, quindi vedere alla nanoscala (non poteva fare il microscopio
ottico poiché la lunghezza d’onda della luce è troppo grande)
1988 La Dupont progetta la prima proteina artificiale→ costruì una molecola artificiale che ha
dimensioni nanometriche
1989 D.M. Eigler (IBM) scrive il nome della sua azienda con 35 atomi di Xenon
1991 S. Iijima scopre i nanotubi di carbonio → che non sono grafite e diamante ma hanno appunto
una struttura nanometrica
1993 Nasce alla Rice University (USA) il primo laboratorio di Nanotecnologie
2001 IBM e Università di Delft (NL) creano il primo circuito logico a base di nanotubi
2002 Cornell University (NY) realizza il primo nanomotore
2003 USA stanziano 3.7 MLD di $ in 4 anni per la ricerca
Non esiste ancora una definizione univoca di nanotecnologia, in particolare abbiamo:
“Nanotechnology is the design, characterization, production and application of structures, devices
and systems by controlling shape and size at nanometer scale.”
Royal Society & The Royal Academy of Engineering (UK,2004)
La definizione sopra, benché sia stata formulate nel 2004 è tutt’ora valida.
“Nanotechnology is the understanding and control of matter at dimensions of roughly 1 to 100
nanometer, where unique phenomena enable novel applications.”
National Nanotechnology Initiative (NNI) (USA2000)
Quest’ultima definizione è importante perché definisce la scala dimensionale delle nanotecnologie,
dove fenomeni unici permettono nuove applicazioni.
Allora in sintesi, con nanotecnologie di intende la capacità di osservare, misurare (quindi
comprendo) e manipolare (quindi progetto) la materia su scala atomica e molecolare.
L’ordine di grandezza di riferimento per le nanotecnologie è 10-9. In particolare si fa riferimento al
nanometro (nm) e quindi si fa riferimento a tutti i materiali e le strutture di dimensioni comprese
tra 0,1 e 100 nm (in certi casi ci estenderemo fino a 1000 nm) ottenuti in modo mirato tramite
processi tecnici.
1
Moschetta/Cangelosi
01_BIONANO (Ciardelli)
02/03/2022
Scala MACRO→ quello che vediamo ad occhio nudo
Scala MICRO→ non riusciamo a vedere la struttura ad occhio nudo, visibile con il microscopio
Scala NANO→ abbiamo bisogno di metodi di investigazione ad esempio i microscopi a forza
atomica o il tunneling.
I normali microscopi riescono a vedere le normali dimensioni nanometriche, questo perché la
lunghezza d’onda ha lunghezze d’onda dell’ordine di grandezza dei batteri, quindi non riesce a
risolvere dimensioni più piccole.
La molecola di DNA è un oggetto nanometrico, mediante le nanotecnologie lo si riesce ad
interrogare, in quanto si scende alla sua scala dimensionale. Le proteine sono un po’ più grandi,
sono decine di nanometri.
Nel mondo di Feynman si scende ancora più in basso, a livello dell’Amstrong (10^-10m -> 0.1 nm)
è l’unità di lunghezza per misurare i legami chimici). Tra i due atomi della molecola di idrogeno vi
sono 0.75 A (0.075 nm o 75 pm)
IL NANOMONDO
In natura esistono diversi esempi di “nanotecnologie”: famoso è l’esempio del geco che ha cinque
dita come la nostra mano però ogni dito è nanostrutturato cioè ha delle lamelle nanometriche.
Ciascuna di queste lamelle ha degli atomi che interagiscono con gli atomi del muro creando le
interazioni di Van der Waals; ovvero deboli interazioni elettrostatiche (dal punto di vista
energetico valgono pochissime kcalorie per mole) che moltiplicate per un numero molto grande
riescono a sviluppare una forza che tiene il geco attaccato al muro e questo è di fatto una
nanotecnologia.
Dunque, i gechi, grazie a queste particolari zampe possono resistere a una forza di trazione
parallela di circa 20 N(~2Kg) che gli consente di aggrapparsi a una foglia dopo una caduta di 10 cm
toccandola con una sola zampa.
2
Moschetta/Cangelosi
01_BIONANO (Ciardelli)
02/03/2022
ALCUNE DEFINIZIONI
I termini nanoscienze e nanotecnologie indicano la capacità di studiare, assemblare, manipolare e
caratterizzare la materia a livello di dimensioni compresi tra 100 e 1 nanometro. Ciò significa
operare a livello molecolare dal momento che 1 nanometro(nm) è un milionesimo di millimetro e
corrisponde all’incirca a 10 volte la grandezza dell’atomo dell’idrogeno. Le dimensioni di una piccola
molecola sono intorno a 1 nm e quelle di una proteina a 10 nm.
Nanoscienze: costituiscono il punto di incontro di discipline diverse che vanno dalla fisica
quantistica, alla chimica supramolecolare, dalla scienza dei materiali, alla biologia molecolare e
rappresentano una realtà ormai affermata nel mondo della ricerca (es: lo studio sulla zampa dei
gechi).
Nanotecnologie: sono ancora nella fase iniziale del loro sviluppo e puntano a sfruttare e ad
applicare I metodi delle nanoscienze per la creazione e utilizzazione di materiali, dispositivi e
sistemi con dimensioni a livello molecolare. In questo modo si ottengono prodotti con
caratteristiche grandemente migliorate o del tutto nuove in quanto le proprietà e il
comportamento non tradizionali della materia a livello nanometrico offrono l’opportunità per
strutture e dispositivi che si operano in maniera radicalmente diversa rispetto a quelli con
dimensioni macro.
Quindi, dove si va a studiare la zampa del Jeco si hanno le nanoscienze, cioè si mettono insieme
varie conoscenze che derivano dalla fisica quantistica, dalla scienza dei materiali, dalla chimica,
dalla biologia molecolare e le si utilizzano tutte per comprendere i fenomeni alla nanoscala. Poi
queste conoscenze vanno applicate alla nanotecnologia; quindi, si applicano i metodi delle
nanoscienze per creare dei dispositivi con dimensione con controllo a livello molecolare o
supramolecolare, che riescono a fare dei mestieri, quindi risolvere dei problemi.
TOP-DOWN e BOTTON-UP
Le nanotecnologie le possiamo classificare in due modi:
- tecnologie Top-down in cui passo da dimensioni macro e vado a definire il mio oggetto sulla
scala nanometrica
- tecnologie Top-botton non cui utilizzo delle componenti nanometriche per realizzare di nano
oggetti sia di tipo inorganico che organico/biologico.
Per spiegare la nanotecnogie Top-down prendiamo come esempio
1) il nanobicchiere: questo bicchiere è fatto di carbonio sospeso in un gas
fabbricato utilizzando un raggio ionico di ioni Gallio, raggio molto energetico
ed essendo energetico ha anche una risoluzione molto alta, concentrato e
controllato da un computer.
2) Il Focus Ion Beam (FIB):
-immagine ionica di uno stampino su Si.
Il contrasto scuro rappresenta SiO2 isolante, quello chiaro è il Si,
conduttore. Le linee interne al campione hanno una larghezza di 250 nm
con una periodicità di 1 um.
3
Moschetta/Cangelosi
01_BIONANO (Ciardelli)
02/03/2022
-Codice a barre modellato su un film di oro depositato su vetro: le linee
di oro più sottili hanno una larghezza di 70 nm.
Mentre per spiegare la nanotecnologia Bottom-up prendiamo come esempio il Focus Io Beam
(FIB):
Se accoppiamo al raggio ionico una fonte di materiale, cioè se
alimentiamo con un gas percussore (molecola metallorganica a
base di Pt) la zona dove abbiamo il materiale vicino al fascio, le
particelle del fascio urtando la superficie depositano energia sopra
le molecole di precursore, le quali di decompongono facendo
precipitare il metallo. Dunque, le specie volatili abbandonano la
superficie, mentre gli atomi metallici si legano alla superficie stessa.
Esempio di oggetti costruiti con la tecnica Bottom-up:
-linee di Pt di 60 nm depositate su Si con fascio ionico
-deposizione con fascio di elettroni di fili di Pt larghi 50 nm ed alti 1 µm
-cella galvanica (cellula micro-elettrochimica) realizzata attraverso la
deposizione di Pt con fascio ionico. Da osservare il braccio orizzontale che
connette gli elettrodi interno ed esterno.
APPLICAZIONI
Effetto loto
È la capacità osservata nei fiori di loto di mantenersi pulito
autonomamente. Sulle foglie di loto l’acqua non viene
trattenuta ma scivola via in tante goccioline che si formano
per via dell’alta tensione superficiale presente sulla foglia
causa della presenza di una cera idrofobica di dimensioni
nanometriche.
Da questo effetto, si possono creare delle vernici contenente le nanoparticelle che diano quindi
una superficie nanostruttrata alla parete e su questa parete l’acqua scorrerà senza bagnarla
portandosi via anche lo sporco, quindi, sono superfici anche autopulenti.
Questo si può anche applicare nei vestiti antimacchia sia dagli oli e sia da liquidi idrofili. Essi
possono avere anche altre proprietà, per esempio esistono nanoparticelle che conferiscono
antibattericità (argento nanocristallino) oppure possono rinforzare materiali polimerici, in quanto
vi sono materiali che disperdendosi nella matrice polimerica conferiscono maggiori proprietà
meccaniche.
4
Moschetta/Cangelosi
01_BIONANO (Ciardelli)
02/03/2022
Bionanotecnologie
con le nanoparticelle si possono manipolare nano-oggetti di origine biologica per esempio i virus.
Essi hanno un guscio proteico al cui interno c’è il materiale genetico e hanno all’esterno delle
codine fatte di poliamminoacidi grazie alle quali aderiscono a specifici nanocristalli inorganici. Con
i virus legati ai nanocristalli, si possono creare delle nanostrutture ordinate come ad esempio
cristalli liquidi inorganici sfruttando la capacità di assembramento dei virus. In questo caso si
utilizzano le capacità della natura di organizzarsi alla nanoscala per creare dei dispositivi
elettronici, cioè questa non ha applicazione in biomedicina, però può avere un’applicazione pratica
in elettronica. Allora si utilizzano i virus come costruttori di nanostrutture.
Con il DNA è possibile fare la stessa cosa : riesce a creare delle strutture ordinate come delle reti
quadrate; se al DNA colleghiamo dei cristalli d’oro otteniamo nanoparticelle d’oro.
5
Moschetta/Cangelosi
01_BIONANO (Ciardelli)
02/03/2022
6
Francolini/Galazzo
02 Bionanotecnologie (Mattu)
03/03/2022
NANOMEDICINA
La nanomedicina è l'applicazione delle nanotecnologie in campo medico, quindi ogni volta che si
applicano le nanotecnologie alla medicina si parla di nanomedicina. È la scienza che si occupa di
applicare le nanotecnologie al campo medico. Per nanomedicina si intende anche il prodotto di
questa scienza, cioè si può chiamare nanomedicina la scienzache applica le nanotecnologie alla
medicina e il prodotto di questa scienza è anch’esso una nanomedicina.
Si può usare il termine in due modi: si può usare il nome per indicare la scienza si occupa di
applicare le nanotecnologie in medicina e si può usare anche per indicare il prodotto di questa
scienza, quindi applicando le nanotecnologie alla medicina si realizzanodelle nanomedicine.
Le nanomedicine non sono altro che farmaci nanostrutturati, o meglio nanoformulati. È
importante ricordare che si può usare il termine nanomedicina in questi due modi:
significato di scienza o il prodotto della scienza.
STORIA DELLA NANOMEDICINA
Si inizia a parlare di nanomedicina nel 1910 con Paul Ehrlich, che era un medico. Il gruppodi
Ehlrich lavorava allo sviluppo di un farmaco contro la sifilide. Ehrlich ipotizzò un concetto che sta
alla base della nanomedicina, questo concetto si chiama del proiettile magico (magic bullet).
Secondo Ehrlich era possibile identificare, per ogni specifica patologia, un farmaco altamente
specifico, cioè altamente selettivo.
Quindi con il concetto di proiettile magico Ehrlich introduce il concetto di selettività. Il proiettile
magico è un farmaco altamente selettivo per il bersaglio, ovvero per il patogenobersaglio e
molto poco selettivo per tutto il resto, cioè per tutto ciò che non è patologico. Questo significa
che il proiettile magico ha un effetto terapeutico massimizzato contro la patologia e ha un
effetto collaterale, cioè un effetto contro tutto ciò che non è patologico, che è un minimo.
In effetti le nanomedicine sono state sviluppate per molto tempo utilizzando il concetto di
proiettile magico. Le nanomedicine sono state chiamate ‘i proiettili magici’ nell’idea che
potessero essere capaci di colpire in maniera selettiva la patologia e per molto tempo questa
patologia è stata la patologia tumorale. Il farmaco era selettivo verso il tumore e molto poco
selettivo verso i tessuti sani, effetto terapeutico massimizzato contro il tumoreed effetti
collaterali minimizzati. Questo concetto di proiettile magico va col concetto di capacità estrema
di agire contro una specifica patologia, risparmiando tutto ciò che non èpatologico.
In realtà per quanto riguarda le nanomedicine non sono così selettive, però migliorano la
sensibilità dei farmaci.
Comunque dal concetto di proiettile magico nasce tutta la storia della nanomedicina chesi
interseca con la storia delle nanotecnologie.
Per iniziare a parare di nanotecnologie bisogna aspettare il famoso discorso di RichardFeynman
nel 1959.
Il discorso si intitolava “There is plenty of room at the bottom…” è stato tenuto da Feynman
all’università di Caltech nel 1959.
Per primo Feynman cercava di incoraggiare gli scienziati dell'epoca ad occuparsi dello studio
dei fenomeni fisici che avvengono alla nano scala, cioè aveva capito che alcuni fenomeni
completamente diffusi tra macroscala e la nanoscala, cioè quando scendiamo nel piccolo la
materia si comporta diversamente. Per molto tempo nessuno lo ascoltò.
Oggi la nanotecnologia è uno dei settori della scienza più vivi e più sviluppati, ci sonoapplicazioni
delle nanotecnologie più o meno in tutti campi, non solo nella medicina. Quindi grazie a questo
1
Francolini/Galazzo
02 Bionanotecnologie (Mattu)
03/03/2022
discorso, Feynman è considerato il padre delle nanotecnologie.
Nel 1984 il termine nanotecnologie è utilizzato con il significato che gli si dà oggi: per
nanotecnologia si intende la capacità di manipolare la materia alla nanoscala, cioè di
manipolare la materia alla scala degli atomi o delle molecole che la costituiscono.
Per la prima volta il termine nanotecnologia venne utilizzato con il significato odierno da
professor Tanigichi all’università di Tokyo nel 1974 in un articolo scientifico.
Bisogna poi aspettare il 1986 perché il termine nanotecnologie diventi di uso comune. Nel
libro di Eric Drexler che si chiama “Engines of creation”, il termine nanotecnologia diventa di
uso comune e viene inserito anche in una pubblicazione divulgativa.
Per riguarda l’applicazione delle nanotecnologie alla medicina ci vuole un po’ di tempo.
In particolare nel 1975 viene pubblicato un primo articolo scientifico in cui si parla di un farmaco
che viene all'interno di un sistema microdimensionato (non nanodimensionato).È primo articolo
in cui si parla di microparticelle.
Il primo proiettile magico, cioè primo anticorpo monoclonale approvato per uso clinico arriva
nel 1986, circa ottant’anni dopo Ehrlich. Ci sono quindi voluti ottant’anni perché ilconcetto
del proiettile magico elaborato da Ehrlich diventasse una realtà clinica.
Nel 1986 viene commercializzato, viene approvato per uso clinico il primo anticorpo
monoclonale. Un anticorpo monoclonale è un farmaco molto selettivo per uno specifico
bersaglio.
Invece, per quanto riguarda l’applicazione clinica della nanomedicina, il primo nanofarmaco
nasce nel 1995 (quasi cent’anni dopo Ehrlich). Questo farmaco si chiama Doxil ed è una
nanomedicina, cioè una formulazione di farmaco antitumorale che si chiama Doxorubicina. La
Doxorubicina è inserita all'interno di nanotrasportatori, ossia di nanoparticelle. In particolare, per
quanto riguarda questa formulazione le nanoparticelle sono dei liposomi.
Doxil è una formulazione liposomiale, cioè all’interno dei liposomi, del farmaco
Doxorubicina, approvato per l’uso clinico dal 1995 e tutt’ora utilizzato.
In particolare nel 2004 viene lanciato negli USA dal Nation Institute of Health (NIH) un grosso
programma di finanziamenti per la ricerca che ci chiama roadmap on nanomedicine. Questi
finanziamenti hanno supportato la ricerca nel campo della nanomedicina finalizzata alle
applicazioni in oncologia clinica. La nanomedicina si è sviluppata negli anni passati come un
modo per migliorare le terapie oncologiche, quindiper tanto tempo le applicazioni cliniche della
nanomedicina sono rimaste collegate al trattamento oncologico.
Più di recente le applicazioni si sono estese ad altri campi.
Nel 2007 in Europa viene creata una fondazione che si occupa sempre del finanziamentodella
ricerca nella medicina clinica. Questa fondazione si chiama CLINAM (Clinica Nanomedicine).
Nel 2010 vengono introdotte nelle nuove linee guida che si preoccupano di un problema che
molto a lungo è stato trascurato, che si chiama nanotossicologia. I materiali hanno proprietà
fisiche diverse quando si passa dalla macro alla nanoscala e in linea generale èun bene, però è
anche vero che passando dalla macro alla nanoscala cambia anche la tossicità, cambiano anche
2
Francolini/Galazzo
02 Bionanotecnologie (Mattu)
03/03/2022
gli aspetti di tossicità legati ai materiali. Lo stesso materiale allananoscala può avere un profilo di
tossicità peggiore rispetto al profilo che ha alla macroscala. Quindi scendendo con le dimensioni i
profili di tossicità possono peggiorare. Questo è abbastanza logico perché più si riducono le
dimensioni del materiale, più ci si avvicina alle dimensioni delle cellule oppure degli organelli che
compongono le cellule.
Quindi si rende il materiale in grado di interagire con gli organismi biologici e di
conseguenza i profili di tossicità possono essere esasperati.
Un esempio classico è l’amianto. Il problema dell'amianto è la degradazione delle fibre, infatti
nella degradazione vengono prodotte delle fibre che possono venire inalate e hannodimensioni
nano/micrometriche. Queste fibre sono le responsabili della tossicità dell’amianto, non tanto il
materiale in forma massiva. Le cellule fagocitano le fibre, queste ultime rimangono ingolfate
all'interno della cellula stessa che, nel tentativo di eliminare queste fibre, creano un ambiente
ossidativo, uno stato infiammato, permanente. In questasituazione si può avere l’accumulo di
mutazioni, quindi la situazione può degenerare versopatologie più complesse. È l’infiammazione
localizzata che è causata dal fatto che le cellule si “mangiano” queste fibre nano dimensionate
responsabile dell’elevata tossicità dell’amianto. È un problema di nanotossicità.
Nel 2010 vengono prodotte nuove linee guida andare a caratterizzare gli aspetti di
nanotossicologia.
TRASLAZIONE CLINICA DELLE NANOMEDICINE
In figura si può vedere
l’applicazione clinica delle
nanomedicine.
Come si può vedere, ci si trova
piuttosto indietro.
Per traslazione si intende il passaggio
dalla ricerca alla vera applicazione
clinica. Pochissimi (circa una decina)
farmaci formulati all’interno dei
nanotrasportatori sono stati approvati
per uso clinico nel corso degli anni. Ci
sono tanti motivi per questo scarso
successo delle nanomedicine,
sicuramente una parte è legata ai metodi
di test che sono stati utilizzati
negli anni. In particolare le nanomedicine vengono testate a livello di ricerca su piccoli modelli di
animali, ma i piccoli animali non rappresentato al 100% l’organismo complessocome quello
umano.
C’è una carente scelta di modelli pre-clinici, che comporta il fallimento del sistema quandosi passa
da un piccolo animale all’uomo. Un altro motivo è il fatto che per anni si sono trascurate diverse
condizioni presenti nell’organismo umano. L’organismo umano è un organismo complesso,
presenta una serie di barriere per la protezione da organismi esterni, incluse le nanomedicine, la
prima barriera fra tutte è il sistema immunitario. Anche i tumori sono strutture complesse che
presentano una serie di barriere ai farmaci, ealle nanomedicine.
Comprendendo meglio la biologia dietro a questi fenomeni, si è lavorato molto su i parametri di
design e progettazione delle nanomedicine per superare determinate barrieree arrivare
3
Francolini/Galazzo
02 Bionanotecnologie (Mattu)
03/03/2022
all'applicazione clinica. Finché queste barriere non sono state capite e queste problematiche non
state chiare, la maggior parte dei sistemi sviluppati a livello di laboratorio ha prodotto scarsi
risultati nell’applicazione clinica.
Ce ne sono solo 10 approvate e una cinquantina attualmente trial clinici.
La prima approvata è stata il Doxil, dal Doxil in poi ci è stata tantissima ricerca e
pochissime applicazioni.
Un’altra nanomedicina famosa approvata nel 2005 si chiama Abraxane ed una formulazione di un
farmaco antitumorale che si chiama Paclitaxel, che è un farmaco moltopotente ma altamente
tossico. Appartiene ad una classe di farmaci chiamati Taxoli. È particolarmente aggressivo ma
altamente tossico, quindi il problema nell’uso clinico di questo farmaco è legato alla sua tossicità.
In effetti formulando il Paclitaxel dentro una sorta di nanoparticella (Abraxane) si migliora il profilo
di tossicità del farmaco stesso.
Questa formulazione del Paclitaxel rispetto al farmaco libero è molto meno tossica.
È una nanoparticella in cui il farmaco viene legato ad una proteina che si chiama albumina, quindi
è una formulazione del farmaco legata all’albumina con una tecnologia che si chiama NAB
(nanoparticle albumine bound) e questa tecnologia può essere utilizzata anche per altri farmaci.
Una volta legato il farmaco all’albumina si crea una sortadi nanoparticella che presenta una
migliore tossicità e un migliore profilo di distribuzione. Abraxane è ancora in uso clinico.
Le ultime particelle sviluppate (Anti-EGFR-Liposomes Phase I e UCNPS PDT) presentano una
dicitura che si chiama Targeted, cioè sono in grado di fare un vero e proprio riconoscimento
selettivo. Questi ultimi sono più simili ai proiettili magici visti in precedenza.
Nel corso degli anni nella nanomedicina sono stati sviluppati tantissimi prodotti differenti,di
fatto pochi sono arrivati all’approvazione clinica. La comprensione di alcuni fenomeni biologici
sta portando ultimamente allo sviluppo di sistemi migliorati con una maggiore capacita di
funzionare in organismi complessi, come quello umano.
Domanda: ”Cosa si intende per tossicità?”
Risposta: La maggior parte dei farmaci, soprattutto i farmaci antitumorali, sono tossici. Se si
compra un qualunque farmaco antitumorale si vede disegnato sopra un teschio, infatti sono
tossici per l’uomo ma hanno anche un certo effetto sulle cellule antitumorale. Quindi bisogna fare
una scelta tra rischio e beneficio, il farmaco produce un effetto tossico. I classici effetti tossici
delle chemioterapie sono dovuti al fatto che il farmaco agisce in maniera non specifica e va a
colpire anche quello che non è il suo bersaglio, quindi il farmaco è tossico per l’uomo ma ha anche
un effetto benefico, si va a valutare il beneficio contro il rischio. Le nanomedicine servono a
ridurre la tossicità perché aumentano la selettività, rendendo il farmaco più selettivo andrà a
colpire più la patologia,di meno quello che non è patologia, quindi i suoi effetti tossici saranno
ridotti.
CHE COS’E’ ESATTAMENTE UNA NANOMEDICINA?
Una nanomedicina è un farmaco formulato, cioè preparato, all’interno di un trasportatore
(carrier) nanodimensionato, cioè all’interno di una nanoparticella.
Quando si parla di nanomedicine si intendono delle nanoparticelle in grado di trasportare farmaci
o altri agenti terapeutici. Ogni volta che si inserisce un farmaco all’interno di una nanoparticella si
4
Francolini/Galazzo
02 Bionanotecnologie (Mattu)
03/03/2022
sta creando una nanomedicina, cioè si sta cercando di modificare alcunecaratteristiche del
farmaco.
Una nanomedicina può non necessariamente contenere solo il farmaco, in una nanomedicina si
può combinare infatti la capacità di curare una patologia ma anche la capacitàdi visualizzare la
patologia, ovvero si inseriscono le potenzialità di imaging.
Una nanomedicina è un farmaco formulato all’interno di un trasportatore
nanodimensionato.
Si può parlare in maniera uguale di nanomedicine e di nanoparticelle. Esse trasportano farmaci,
quindi sono in grado di curare patologie, ma possono essere anche in grado di visualizzare
determinate patologie (potenzialità di imaging). Si possono quindi combinare potenzialità di cura
e imaging all’interno delle nanomedicine.
La prima grossa classificazione è questa:
Le nanoparticelle si possono classificare in:
- Nanoparticelle massive: si ha una struttura piena, massiva, che contiene il farmaco disperso
all’interno della matrice che costituisce la particella. Quindi si ha una particellamassiva (piena),
il farmaco di trova disperso in questa matrice in maniera più o meno uniforme, verrà rilasciato
lentamente, principalmente secondo fenomeni diffusivi, cioè il farmaco diffonde dalla matrice
in cui è disperso verso l’esterno.
- Nanocapsule: la differenza in questo caso è che le capsule sono cave. La cavità interna, vuota,
può ospitare il farmaco, oppure il farmaco potrà trovarsi all’interno del guscio. Le capsule sono
costituite da un guscio di un materiale a nostra scelta e da unacavità interna tipicamente
ospitante il farmaco, ma non necessariamente, perché il farmaco può anche trovarsi disperso
nel guscio. In questo caso cambia la struttura rispetto alle nanoparticelle massive.
- Nanocomplesso: particella che si forma per interazione elettrostatica. Per esempio, sesi
utilizza un polimero per andare a costituite la particella, si avranno le catene polimeriche che
hanno una certa carica elettrostatica (es. positiva) mentre il farmaco avrà una carica opposta
(negativa). Quindi il farmaco di carica negativa andrà ad interagire con le cariche positive
presenti nel materiale con il quale si vuole andare a costituire la particella, le craniche si vanno
ad annullare, ovvero le cariche si complessano. L’interazione elettrostatica crea un
annullamento delle cariche nette per formare delle strutture, cioè dei complessi in cui le
cariche positive, ad esempio, sono state complessate dalle cariche opposte presenti nel
farmaco. Se si ha il polimero con una certa carica, il farmaco con carica opposta va ad
interagire, va ad annullare la carica polimerica. Le catene polimeriche non si respingono più
per effetto delle cariche opposte ma tendono a collassare, le catene polimeriche andranno ad
5
Francolini/Galazzo
02 Bionanotecnologie (Mattu)
03/03/2022
avvicinarsi le une alle altre e a formare una struttura simile ad un aggregato nanostrutturato,
chiamato complesso. Quindi il complesso non è altro che un aggregato nanostrutturato che si
forma dall’interazione tra cariche opposte, che sono le cariche sul materiale con cui viene
realizzata la particella e la carica opposta presente sul farmaco che si vuole incapsulare.
A seconda del materiale utilizzato per preparare le nanoparticelle si può fare un’ulteriore
classificazione delle nanomedicine.
- Nanoparticelle lipidiche: ottenute a base di lipidi, materiali che compongono le membrane
cellulari. Quindi si decide di utilizzare i lipidi per creare le particelle, si ricade in questa
classificazione: nanocarriers a base lipidica. I nanocarriers a base lipidica possono essere sia
massivi (nanoparticelle solide lipidiche) che cavi, quindi nanocapsule (es.liposomi). Il Doxil è una
formulazione di Doxorubicina in lipomi, quindi il Doxil è una nanocapsula.
- Nanoparticelle polimeriche: le particelle polimeriche possono essere massive, capsule o
complessi. Si possono selezionare polimeri con proprietà diverse che quindi mi daranno
strutture con caratteristiche diverse. Si possono utilizzare polimeri costituitida due
componenti, una idrofobica e una idrofilica. Se vengono messi in acqua le porzioni idrofobiche
si andranno a distribuire al centro, mentre le porzioni idrofiliche si disporranno verso l’esterno
in modo da massimizzare i loro contatti con l’acqua. In questo caso si ottiene una
nanoparticelle cava e nella porzione vuota si può inserire il farmaco. Questa struttura è una
capsula che viene chiamata micella. Una micella polimerica si forma perché il polimero è
costituito da una componente idrofobica e una idrofilica e in acqua si dispone in modo tale da
formare una struttura circolare di formasferica, cava al proprio interno, che può ospitare dei
farmaci.
- Nanoparticelle inorganiche: tipicamente particelle metalliche, nanoparticelle d’oro o
nanoparticelle di ossidi di ferro. Sono sfruttate perché permettono di fare imaging. Per
esempio le particelle costituite da ossidi di ferro sono degli ottimi agenti di contrasto in
risonanza magnetica. Possono anche trasformare farmaci, pero in genere le nanoparticelle
inorganiche sono sfruttate principalmente per le loro potenzialità di imaging, ma anche
perché se opportunamente stimolate dall’esterno sono anche in grado di scaldarsi e questo
può essere utilizzato come terapia (ipertermia). Un altro tipo di nanoparticelle inorganiche
molto utilizzato sono i quantum dots, che sono dei fluorofori, ovvero particelle in grado di
emettere fluorescenza, sono molto sfruttate per fare imaging, però hanno un’applicazione
6
Francolini/Galazzo
02 Bionanotecnologie (Mattu)
03/03/2022
molto limitata sull’uomo a causa dell’elevata tossicità, mentre sono molto utilizzate su cellule
e su piccoli animali.
- Coniugati farmaco-polimero: quando il farmaco viene iniettato nell’organismo andrà a
distribuirsi in un certo modo all’interno dei vari tessuti e organi che compongono l’organismo
(profilo di distribuzione), questo modo di distruzione dipende dalle caratteristiche del farmaco.
Un'altra caratteristica del farmaco è quanto in fretta viene eliminato, quanto in fretta viene
espulso. In funzione della struttura del farmaco si avrà un certo profilo di distribuzione. Se il
profilo di distribuzione non va bene perché si vuoletrattare una patologia specifica che si trova
in una determinata zona dell’organismo, percambiare il modo in cui il mi farmaco si distribuisce
nell’organismo si può coniugare il farmaco con un polimero o con una proteina, quindi si può
dare al farmaco una strutturadifferente. Quando si andrà ad iniettare questo nuovo farmaco
magari si è riusciti a cambiare con successo il suo profilo di distribuzione. Formulando
diversamente il farmaco, si cambia il modo in cui il farmaco si distribuisce nell’organismo.
Un’altra cosa che si può riuscire a fare è andare ad aumentare il tempo di circolazione, ridurre
la velocità con cui il farmaco viene inserito. Quando viene inserito il farmaco all’interno delle
nanomedicine si sta andando ad alterare il suo profilo di distribuzione sperando di migliorarlo,
sperando di renderlo più selettivo per il target, cioè cercando di direzionare il farmaco dove lo
si vuole mandare.
DIMENSIONI
Non esiste una definizione che mi dica qual è la dimensione critica che mi dica qual è la
dimensione critica sopra a quale non si hanno più nanoparticelle. Non c’è un range
dimensionale definito che mi distingua quali siano nanoparticelle o nanomedicine e qualino. In
particolare si troveranno diverse definizioni.
La definizione più comune è quella che dice che tra 1 nm e 100 nm si parla di nanoparticelle, ma se
ne possono trovare molte altre. In generale sono definite nanoparticelle tutte quelle particelle che
hanno una dimensione nella nanoscala, sotto il micron. Questo significa che anche particelle
grandi (dell’ordine di qualche micron), se però hanno una caratteristica alla nanoscala, sono
ancora nanoparticelle. Una caratteristica alla nanoscala possono essere dei pori, oppure la
particella può avere un certo spessore di dimensioni nanometriche (particella discoidale di
spessore nanometrico).Una dimensione caratteristica qualunque nella nanoscala rende le
particelle nanoparticelleo nanomedicine. Non c’è una definizione
precisa in base alle dimensione.
Per esempio si possono avere i liposomi fino a
qualche centinaio di nm, anche più di 300 nm;
nanoparticelle polimeriche fino a 500 nm; particelle
molto piccole come le nanoparticelle dicarbonio e
d’oro, tipicamente inorganiche a base di metalli, in
cui si ha un elevato controllo delle dimensioni.
7
Francolini/Galazzo
02 Bionanotecnologie (Mattu)
03/03/2022
COMPONENTI PRINCIPALI
Indipendentemente dalla classificazione, per ogni nanoparticella si
possono sempre distinguere due compartimenti principali: la parte
centrale, chiamata core, e la superficie, la parte esterna della particella.
Il core in genere trasporta il farmaco o i farmaci e può essere costituito da
materiali diversi: se la particella è stata costituita da materiali polimerici,
allora il core sarà polimerico, se sono stati usati ilipidi, il core sarà lipidico
oppure il core sarà inorganico se la
particella è inorganica. Si possono usare anche più materiali, per esempio si può usare siaun
polimero che un lipide, oppure sia un polimero che un materiale inorganico e in questo caso si
hanno delle particelle ibride.
Il core quindi può essere costituito da diversi materiali e trasporta i farmaci.
Il core può anche trasportare agenti di imaging, per esempio se si usano delle
nanoparticelle inorganiche d’oro, il core sarà in grado di fare imaging.
Oppure se si usa un composto organico di ossido di ferro, il core potrà essere usato per fare
imaging in risonanza magnetica.
Il core può trasportare i farmaci, può trasportare gli agenti di imaging, può trasportare molecole di
DNA o RNA, cioè può fare terapia genica, in questo caso in genere il core è un nanocomplesso. Gli
RNA hanno una carica netta negativa, quindi se si vuole trasportare una molecola di RNA si può
usare un polimero di carica opposta, che vada a complessare (neutralizzare) la carica presente nel
RNA. Andando a neutralizzare le cariche si crea una struttura di carica quasi neutra, così facendo
annullo la carica sul farmaco (RNA) e lo si intrappola in una struttura polimerica sfruttando
l’interazione con le cariche opposte presenti nel polimero, si va a creare un complesso da polimero
e RNA. Quindi il core sarà un complesso tra un polimero e l’RNA che trasporta un acido nucleico
(RNA) per fare terapia genica.
Il compartimento superficiale serve perché è la zona della particella in cui si stabilisconole
interazioni con l’ambiente biologico.
Nella superficie bisogna inserire delle componenti che permettano di modulare l’interazione. La
prima cosa da modulare è quanto tempo la particella può circolare nell’organismo e questo
appunto lo dice la superficie. In genere quando le particelle vengono iniettate, vengono
rapidamente eliminate, perché sono un corpo estraneo e il sistema immunitario cercherà di
eliminarle. La superficie va correttamente strutturata in modo da ritardare il più possibile
l’eliminazione da parte del sistema immunitario. Per farequesto si inseriscono in superficie dei
polimeri idrofilici, il principale è il PEG. La superficiedice come la particella interagirà con
l’ambiente biologico e per quanto tempo sarà in grado di circolare.
La superficie serve per interagire con il target specifico, infatti si può utilizzare la superficieper
ottenere una maggiore specificità. Si possono iniettare sulla superficie delle molecole che
permettono di riconoscere in modo più specifico il bersaglio.
La superficie può servire per fare imaging. Ci sono alcuni agenti di imaging che funzionanomeglio
quando sono esposti all’esterno della particella, per esempio i complessi di gadolinio (agente di
contrasto in risonanza magnetica) interagiscono molto bene con i fluidi biologici e generano
contrasto interagendo con l’acqua presente nei tessuti, quindi per poter avere contrasto in RM i
complessi devono interagire con i fluidi, per cui se si trovano all’esterno è meglio perché sono più
liberi di interagire.
8
Francolini/Galazzo
02 Bionanotecnologie (Mattu)
03/03/2022
Un altro esempio sono gli agenti che funzionano in fluorescenza. La fluorescenza è facilmente
mascherata, quindi se gli agenti di imaging si trovano all’interno della particella, la sua potenzialità
di generare fluorescenza viene in parte mascherata, se invece gli agentisono fuori si vedrebbe
tutto il contributo.
Quindi in alcuni casi è preferibile che l’agente di imaging si trovi all’esterno per sfruttare apieno
le potenzialità che esso ha.
Si possono avere particelle ibride utilizzando materiali diversi per prepararle, inoltre si possono
anche mettere nella stessa particella farmaci e agenti di imaging, si possono combinare più cose.
Quando si combinano potenzialità terapeutiche e diagnostiche nellastessa particella, si parla di
particelle multifunzionali, che possono svolgere più di una funzione contemporaneamente. In
particolare le particelle che fanno terapia combinata con la diagnostica si chiamano particelle
teranostiche.
Domanda: “Una nanoparticella teranostica e una nanoparticella multifunzionale sono due cose
diverse? ”
Risposta: Sì, possono essere chiamate multifunzionali se fanno più terapie insieme cioè se
trasportano più di un farmaco con lo stesso carrier. Ci sono farmaci che agiscono in sinergia e
quindi vanno trasportati insieme, per esempio, si può fare una terapia che va a curare uno stato
infiammatorio localizzato e nello stesso tempo rilascia un RNA per ridurreuna rigenerazione del
tessuto, in questo caso è sempre una particella multifunzionale perché svolge in contemporanea
due funzioni. Quindi si hanno due farmaci che vanno ad agire sullo stesso sito ma con scopi
completamente diversi.
Un altro esempio di particella multifunzionale è una particella che combina il targeting conla
capacità terapeutica o con la diagnostica.
E in questo non diminuisce la selettività perché è il carrier che dà la selettività, se i duefarmaci
agiscono nello stesso sito.
9
Pastore/Grillo
03 Bionanotecnologie (Mattu)
03/03/2022
NANOMEDICINA
Le nanomedicine sono considerate più selettive nei confronti dei tumori.
Ci sono due modi attraverso cui si può migliorare la selettività, quando si inserisce un farmaco
all’interno di una nanomedicina:
 Targeting passivo: una caratteristica delle nanoparticelle di piccole dimensioni,
dell’ordine di qualche centinaio di nm, è la capacità di permeare selettivamente
all’interno della massa tumorale passando attraverso i buchi che si trovano nei
vasi sanguigni che irrorano il tumore.
Per passivo si intende che le particelle immerse nel circolo sanguigno, arrivano
ai vasi sanguigni tumorali che risultano essere più permeabili (presentano pori),
solo perché sono di dimensioni più piccole, confrontabili con le aperture
presenti, vi passeranno attraverso riuscendo così a penetrare all’interno della
massa tumorale solo per effetto delle dimensioni. Non vi è alcuna azione
specifica di riconoscimento, vengono prese in considerazione solo le dimensioni
delle particelle. Nei tessuti sani, invece, dove i vasi sanguigni sono meno
permeabili, le particelle tenderanno a passare di meno; si avrà un targeting (una
selettività) solo alle dimensioni, detto appunto per questo passivo.
Il concetto è quindi che particelle di piccole dimensioni, compatibili con le
aperture dei vasi sanguigni tumorali, facilitano il passaggio per la permeazione
delle particelle verso la massa tumorale facendo quindi targeting solo per
effetto passivo.
 Targeting attivo: le particelle presenti nel circolo sanguigno arrivano in
prossimità del tumore, permeano per le dimensioni all’interno della massa (fin
qui c’è targeting passivo), ma in aggiunta sono in grado di riconoscere in maniera
specifica le cellule che compongono il tumore perché presentano modifiche
superficiali grazie alle quali sono in grado di interagire con le cellule tumorali. La
differenza sta nella struttura della particella. Nel target passivo si ha una
semplice particella sferica di dimensioni compatibili con le aperture, mentre nel
caso attivo la stessa particella è modificata in superficie inserendo delle
funzionalità utili ad interagire in modo specifico con le cellule che costituiscono
la massa. La selettività in questo caso è superiore.
TARGETING PASSIVO
L’effetto di targeting passivo è stato dimostrato per la prima volta dal
gruppo di Maeda, che eseguì un esperimento in cui venne iniettato un
farmaco legato all’albumina: al posto di un farmaco vero e proprio è
stato utilizzato un colorante chiamato Evans Blue, in modo da poter
fare staining e poterne apprezzare la distribuzione. I soggetti impiegati
sono topi con un modello tumorale realizzato nel fianco ai quali sono
state iniettate le particelle nel circolo venoso attraverso la coda.
Osservando il tumore in vari istanti di tempo si può osservare che, con
l’avanzare del tempo, il colorante si va ad accumulare all’interno della
massa. Questo esperimento ha dimostrato che iniettando le particelle
in circolo, si ha una distribuzione di particelle con una maggiore
concentrazione nella massa piuttosto che in altre parti del corpo
dell’animale. A seguito dell’esperimento, il team dichiarò che il tumore
presentava un’aumentata permeazione alle particelle circolanti.
1
Pastore/Grillo
03 Bionanotecnologie (Mattu)
03/03/2022
Dato che rimaneva aperta la questione del perché nel tempo le particelle continuassero ad
accumularsi nella massa, il team fece un secondo esperimento in cui furono messe a
confronto la somministrazione attraverso un’iniezione intra-tumorale e un’iniezione
sottocutanea nel fianco sano del topo. Dopo uno stesso intervallo di tempo si è osservato che
nel caso dell’iniezione intra-tumorale il farmaco è rimasto in loco, mentre nell’altro caso il
farmaco non era più visibile.
Quindi, il primo esperimento dimostra che questo modello tumorale presenta una maggiore
permeabilità alle nanoparticelle, mentre il secondo esperimento dimostra che la massa
tumorale ha una maggiore ritenzione, ovvero trattiene le nanoparticelle una volta penetrate.
Questo effetto della massa tumorale viene chiamato effetto EPR (enhanced permeability and
ritention effect), ed è una caratteristica del tumore, e non delle particelle, che viene sfruttata
per ottenere il targeting passivo.
L’effetto EPR si spiega
guardando
le
caratteristiche dei vasi
sanguigni
tumorali:
rispetto ai tessuti sani,
i tumori presentano
un’angiogenesi
più
disorganizzata, come
si può apprezzare dalle
micrografie
che
mettono a confronto
l’architettura dei vasi
di un tessuto sano e quella di un tessuto tumorale. Ci si accorge che i vasi sono aggrovigliati,
disorganizzati e disomogenei e in più sono molto più permeabili a causa delle fenestrature,
non presenti nei vasi normali. Questo è dovuto alla proliferazione incontrollata dei tumori,
che richiede un maggiore apporto di nutrienti, che vengono presi dai vasi sanguigni. I vasi
sanguigni, generati in tutta fretta, presentano dunque un’architettura meno curata, in favore
però dell’iper-vascolarizzazione, che facilita l’apporto di nutrienti.
Per catturare il maggior numero di nutrienti dal circolo sanguigno i vasi hanno pareti più sottili
e con più fenestrature, agevolando anche il passaggio delle nanoparticelle.
L’angiogenesi disordinata nei tumori spiega l’effetto della permeabilità.
La ritenzione invece è dovuta in parte all’architettura dei vasi aggrovigliati, ma soprattutto
alla mancanza di un adeguato sistema di drenaggio linfatico nei tumori. Lo sviluppo del
sistema linfatico viene infatti trascurato in favore dell’iper-vascolarizzazione.
La combinazione di angiogenesi incontrollata e scarso drenaggio linfatico è responsabile
dell’effetto EPR dei tumori.
Le particelle sfrutteranno l’effetto EPR per penetrare nei tumori in maniera passiva.
Purtroppo non tutti i tumori presentano l’effetto EPR, e questo varia col progredire degli
stadi tumorali per lo stesso tipo di tumore; quindi il concetto del targeting passivo è valido in
teoria, ma non sempre nella pratica e deve dunque essere sfruttato in maniera oculata. Per
molto tempo si è creduto il contrario, complice il fatto che negli esperimenti condotti si
utilizzano modelli molto approssimati e questo ha portato a sovrastimare le potenzialità delle
nanomedicine con la conseguenza di una serie di risultati fallimentari.
2
Pastore/Grillo
03 Bionanotecnologie (Mattu)
03/03/2022
TARGETING ATTIVO
Per targeting attivo si intende che le nanoparticelle sono
capaci di interagire in modo specifico con le cellule grazie
a delle modifiche superficiali.
Tali modifiche consistono nell’inserire sulle superfici delle
particelle delle macromolecole, chiamate ligandi,
specifiche per la cellula target e in particolare per i
recettori (proteine) presenti sulla membrana della cellula
target. Ogni cellula presenta un preciso set di proteine
sulla propria superficie, con un dominio che sporge:
l’obiettivo è sfruttare tali proteine per il riconoscimento
delle particelle funzionalizzate con il ligando recettorespecifico.
Il ligando, interagendo in modo specifico con il recettore,
porta in stretto contatto la particella e la membrana
cellulare, con il conseguente ingresso della particella nella
cellula.
Il ligando, legandosi al recettore, lo attiva trasmettendo
un segnale alla cellula. Vari segnali vengono trasmessi dai
recettori alla cellula: dalla proliferazione, alla migrazione,
alla morte.
Dato che i tumori tendono a proliferare di più rispetto alle cellule sane, è naturale aspettarsi
una maggiore quantità di tali recettori sulla loro superficie.
Un esempio è quello del recettore HER2, che risulta sovra-espresso in diversi tipi di tumore,
in particolare quello al seno. Il problema diventa di tipo probabilistico perché più recettori ci
sono, più è probabile che la nanoparticella funzionalizzata con il ligando HER2-specifico
interagisca con la cellula che presenta più recettori di quel tipo sulla sua superficie.
Attraverso la modifica superficiale della nanoparticella si ottiene un targeting attivo.
Inoltre il targeting attivo si basa sul riconoscimento specifico, ma solo quando le particelle
sono arrivate a contatto con le cellule target (possibile sfruttando il targeting passivo).
TARGETING STIMOLO-MEDIATO
Una volta che le particelle sono arrivate all’interno della
cellula target, si può attivare il rilascio del farmaco
applicando uno stimolo esterno, ad esempio attraverso
ultrasuoni o un campo magnetico esterno. Questo viene
fatto perché si vuole attivare il rilascio della terapia solo
nel momento in cui è sicuro che le particelle siano entrate
nella cellula bersaglio. Oltre agli stimoli esterni si possono
sfruttare stimoli locali come una variazione di pH, che si
verifica più spesso che nei tessuti sani.
È importante ricordare che una strategia non esclude
l’altra perché il targeting attivo avviene solo in seguito al
targeting passivo che porta le particelle in situ, e lo stesso
vale per il targeting stimolo-mediato che dipende
strettamente dal fatto che il targeting attivo abbia avuto
successo.
3
Pastore/Grillo
03 Bionanotecnologie (Mattu)
03/03/2022
Riassumendo…
 Le nanomedicine possono targettare i tumori, ovvero riconoscerli
selettivamente sfruttando due forme di targeting: quello passivo e quello attivo.
 Il targeting passivo sfrutta l’effetto EPR, una caratteristica del tumore dovuta
all’alta permeabilità dei vasi sanguigni tumorali e all’assenza di un sistema
linfatico efficiente.
 Il targeting attivo richiede una modifica superficiale delle nanoparticelle in modo
che possa avvenire il riconoscimento specifico tra ligando e recettore.
 Bisogna fare attenzione al fatto che la specificità del targeting attivo non tiene
conto dell’elevata eterogeneità del microambiente tumorale: una massa
tumorale presenta infatti un microambiente molto eterogeneo e quindi è
possibile che solo un sotto-tipo venga eliminato, e che invece, altre cellule,
magari più aggressive, restino inalterate.
 Non sempre si può effettuare il targeting passivo.
 Si possono combinare diverse strategie di targeting.
DOMANDA: Cosa si può fare quando non è possibile il targeting passivo (come nel caso di
tumore al pancreas o al cervello)?
Si può ricorrere ad iniezioni locali, in vicinanza della massa oppure si possono sfruttare
strategie meno performanti che prevedono l’utilizzo di particelle contenenti particelle
magnetiche come può essere l’ossido di ferro e quindi si applica un magnete esternamente in
modo da spingere le particelle ad andare verso la sede del tumore. Un’alternativa può essere
affidarsi solo al targeting attivo sperando che prima o poi le particelle raggiungano il sito
tumorale.
I principali campi di applicazione delle nanomedicine sono: diagnostica, imaging medico,
nano-terapia, vaccini e medicina rigenerativa.
In generale, per imaging e diagnostica si utilizzano nanoparticelle inorganiche, mentre il
trasporto di farmaci è ottenuto sfruttando particelle polimeriche o lipidiche.
QUANTUM DOTS
I quantum dots sono utilizzati per fare imaging in fluorescenza, si tratta di cristalli di materiali
semiconduttori che hanno dimensioni molte piccole, di qualche nm, più o meno le dimensioni
di un singolo cristallo semiconduttore. I materiali semiconduttori sono il frutto della
combinazione di più metalli di transizione (CdS, PbS e CdSe), quindi il problema in questo caso
sta nella biocompatibilità, che li limita ad applicazioni in vitro o su piccoli animali.
Sono fatti degli stessi materiali semiconduttori in forma di bulk, l’unica differenza è la
dimensione, che porta a proprietà fisiche completamente diverse. Gli elettroni si trovano
confinati in vicinanza del nucleo e questo conferisce ai quantum dots la capacità di emettere
luce, per esempio, in fluorescenza.
Quando un quantum dot viene esposto alla radiazione luminosa alla corretta lunghezza
d’onda, è capace di emettere in fluorescenza e quindi si può ottenere un ampio range di
emissione in fluorescenza sfruttando i QDs.
La fluorescenza emessa può essere modulata scegliendo accuratamente la composizione dei
cristalli e, a parità del materiale, il diametro del cristallo.
4
Pastore/Grillo
03 Bionanotecnologie (Mattu)
03/03/2022
Ad esempio, un cristallo di 2 nm di selenurio di
cadmio emetterà ad una lunghezza d’onda di
500 nm, mentre un cristallo con la stessa
composizione, ma diametro di 8 nm, emetterà
a 650 nm.
Uno dei vantaggi dei QDs è che i loro spettri di
emissione sono molto stretti e si può quindi
modulare l’emissione in modo molto fine,
permettendo di lavorare con più fluorofori
contemporaneamente riuscendo comunque a
discriminare più fluorofori l’uno dall’altro.
Nei materiali semiconduttori in
forma di bulk gli elettroni si
dispongono
su
due
livelli
energetici: una banda vicina al
nucleo, chiamata banda di
valenza, ed una più lontano
chiamata banda di conduzione,
separata dalla banda di valenza da
un gap energetico.
Per mandare un elettrone dalla
banda di valenza a quella di
conduzione, l’elettrone deve
essere
eccitato
fornendogli
un’energia pari almeno al gap tra
le bande in modo che possa
saltare alla banda di conduzione.
Quando si passa alla nanoscala, gli elettroni nella banda di valenza si ritrovano confinati in
una struttura nano-dimensionata e sono quindi più vicini al nucleo perché ne sono
maggiormente attratti. La banda di valenza si schiaccia intorno al nucleo, mentre quella di
conduzione di allontana, facendo aumentare il gap energetico tra le due bande.
Quando l’elettrone salta dalla banda di valenza a quella di conduzione rimane un vuoto nella
banda di valenza (vacanza). Dopo un po’ l’elettrone tende a tornare nella sua posizione
precedente, ovvero a ricombinarsi con la vacanza: nel fare ciò emette un’energia E=h*ν, dove
ν=c/λ e quindi E=h*c/ λ.
Dato che c è una costante (velocità della luce) si ha che la lunghezza d’onda è inversamente
proporzionale all’energia emessa, cioè maggiore è E, e minore sarà λ.
Tanto più piccole sono le dimensioni del QD, tanto più aumenta il gap tra le bande e quindi la
lunghezza d’onda emessa quando l’elettrone decade si riduce.
Radiazioni ad alta energia hanno λ piccola e viceversa.
5
Pastore/Grillo
03 Bionanotecnologie (Mattu)
03/03/2022
Quindi, QDs piccoli emetteranno verso il blu, QDs più grandi emetteranno verso il rosso o
l’infrarosso.
I QD presentano una serie di vantaggi rispetto ai fluorofori tradizionali, ovvero quelli organici,
che li rendono più performanti:
 Sono circa 20 volte più luminosi
 Sono 10-100 volte più stabili rispetto al problema del photobleaching o di
degradazione fotochimica: mentre ogni volta che un fluoroforo organico viene
eccitato si danneggia, i QD possono sopportare moltissimi cicli di eccitazione ed
emissione
 Ogni fluoroforo ha uno spettro di assorbimento (lunghezze d’onda assorbite dal
fluoroforo) ed uno di emissione (lunghezze d’onda emesse dal fluoroforo
eccitato) specifico: il vantaggio di un QD è che il range di lunghezze d’onda che
può assorbire è molto ampio rispetto ai fluorofori organici. Al contrario, nel caso
dell’emissione, un fluoroforo organico emette in un’ampia banda, mentre il QD
in un range molto ben definito.
Usando i QDs è possibile ottenere dei marcatori in fluorescenza molto più performanti
rispetto ai fluorofori organici tradizionali, perciò è possibile mettere più agenti di imaging
contemporaneamente (es. imaging delle cellule in vitro).
Di contro i QD presentano un’elevata tossicità che li rende poco biocompatibili.
6
Chieffallo/Martinengo
04 Bionanotecnologie (Mattu)
04/03/2022
Nell’ultima lezione si è parlato dei quantum dots, della loro applicazione come fluorofori, in particolare si è
detto che hanno il vantaggio di essere estremamente performanti in fluorescenza.
Hanno spettri di assorbimento più larghi
rispetto ai fluorofori tradizionali, possono
essere eccitati in un range ampio di lunghezze
d’onda e hanno spettri di emissione stretti e
simmetrici, cosa che consente di fare
applicazioni di multi-imaging. Si è anche detto
che i quantum dots sono molto più
performanti, nel senso che resistono ai
fenomeni di degradazione fotochimica,
anche detta photobleaching: sono 10-100
volte più stabili rispetto ai fluorofori organici
tradizionali, e questo permette di fare
imaging nel tempo.
Cosa significa fare imaging nel tempo?
Si vede a tal proposito l’esempio:
Nella prima colonna di immagini c’è un fluoroforo organico,
nella seconda un quantum dot; quello che si sta facendo è una
colorazione, una marcatura, del citoplasma delle cellule; quindi,
si sta osservando la stessa cellula in cui è stato colorato il
citoplasma.
Viene fatto un imaging in continuo, della cellula, per 8 minuti,
quindi sono rappresentati i primi 8 minuti, in cui continuamente
si sta eccitando il fluoroforo e rilevando la sua emissione.
Nel caso dei fluorofori organici, dopo circa 4 minuti il fluoroforo
perde le sue prestazioni, non si vede più niente, quindi significa
che il fluoroforo organico subisce il fenomeno della
degradazione fotochimica: a furia di venire colpito, eccitato,
smette di rispondere, si degrada e non è più in grado di
emettere fluorescenza. Si vede che l’intensità della fluorescenza
che emette si riduce nel tempo fino a scomparire.
Per contro, il quantum dot, lo si riesce a usare benissimo per tutti gli 8 minuti: anche se lo si continua a
stimolare, il quantum dot continua a rispondere sempre con la stessa efficienza.
Nella figura sono rappresentati 8 minuti, però il test è stato condotto per 14 ore senza perdere
performance da parte dei quantum dot: questo per far capire che se si vuole monitorare un evento
biologico a livello cellulare per tempi lungi, i quantum dots hanno vantaggi enormi cioè possono essere
stimolati senza perdere efficienza di risposta.
Invece, ciò che si vede nella terza colonna è la sovrapposizione delle prime due, la quale mostra che solo
per i primi minuti effettivamente la sovrapposizione è perfetta, rosso e verde danno giallo: la risposta è
quindi perfettamente sovrapposta, rispondono uguale. Già dal quarto minuto si vede di più il quantum dot,
dal quarto in poi si vede poi esclusivamente il quantum dot.
1
Chieffallo/Martinengo
04 Bionanotecnologie (Mattu)
04/03/2022
Quindi coi fluorofori organici c’è questo grosso limite, che è quante volte di seguito si possono stimolare e
rilevare ancora fluorescenza mentre un vantaggio dei quantum dot è sicuramente la stabilità alla
degradazione fotochimica.
Quando poi si ottengono i quantum dots,
dopo la sintesi si è in condizione A: il
quantum dot è sintetizzato in solvente
organico ed è fondamentale che i cristalli di
materiale semiconduttore che si stanno
producendo restino stabili (stabili vuol dire
che rimangono sospesi nel solvente e che
non si aggregano gli uni con gli altri).
Nella scorsa lezione si è detto che la
dimensione del quantum dot è critica
perché da questa dipende la lunghezza
d’onda d’emissione, la quale è decisa da chi
fa l’esperimento, perciò si fa crescere il quantum dot della dimensione che da quella specifica lunghezza
d’onda di emissione; se i quantum dots si aggregano diventano più grandi e cambiano le loro proprietà in
fluorescenza, perciò in genere non si vuole che si aggreghino.
In sostanza, dopo la sintesi il quantum dot è sospeso nel solvente e stabilizzato dalle molecole del solvente
stesso; tali molecole sono idrofobiche, quindi in tale configurazione (A) il quantum dot è stabile in solvente
organico, presenta una superficie idrofobica.
Se si vuole usare il qd (da ora qd= quantum dot) per trattare le cellule come visto nell’esempio precedente,
bisogna passare dal solvente organico all’acqua, o meglio a un solvente acquoso, quindi bisogna fare in
modo che il qd sia stabile in acqua: si deve rendere la sua superficie da idrofobica a idrofilica (la superficie è
visibile nel disegno), bisogna quindi cambiare il rivestimento superficiale perché sia stabile in soluzione
acquosa.
Seconda cosa da fare dopo aver sintetizzato i qd è quindi passare alla configurazione B, in cui la superficie
diventa idrofilica e acquisisce stabilità in acqua.
Poi siccome si deve fare imaging in vitro sulle cellule, così come per qualunque tipo di rilevazione, bisogna
rendere il qd specifico per quello che si vuole visualizzare: nell’esempio precedente quello che si vuole
visualizzare è il citoplasma della cellula, quindi in questo caso bisogna rendere il quantum dot specifico per
tale target, modificando la superficie con specifici ligandi.
La configurazione finale C è quella in cui il quantum dot è in grado di interagire con lo specifico target che si
vuole identificare a livello cellulare e quindi è stato modificato in superficie con specifici ligandi (anticorpi,
proteine, o altre piccole biomolecole come il fattore di crescita).
Nella composizione A è idrofobico il rivestimento, quello che c’è in superficie, composto da molecole
idrofobiche del solvente, cosa che permette alla particella di rimanere stabile nel solvente: ciò, però, non va
bene per l’acqua, bisogna cambiare il rivestimento rendendolo idrofilico, in modo tale che sia stabile in
acqua.
2
Chieffallo/Martinengo
04 Bionanotecnologie (Mattu)
04/03/2022
Alla fine, si ottiene il quantum dot con questa struttura,
stabilizzato e funzionalizzato; da questa micrografia a
trasmissione (TEM) si nota che la sintesi dei quantum dot
permette di avere strutture molto ripetibili, infatti i quantum
dots sono tutti uguali (si riesce ad essere molto riproducibili) e
con una microstruttura molto ordinata.
Questo è lo schema generale di sintesi dei
quantum dot; dopo la sintesi si ha la
configurazione A, quella in cui c’è il rivestimento
idrofobico sul quantum dot.
Per sintetizzare i quantum dot di solito si lavora in solvente organico caldo, ad alte temperature, e il
solvente in genere è il tri-octil-fosfina (TOP) o il trifosfinossido (TOPO): è questo solvente che lascia le
molecole sulle superficie dei quantum dot.
Quindi si parte inserendo all’interno del solvente caldo i materiali con cui si vuole realizzare il quantum dot,
bisogna usare metalli di transizione: la prima cosa da fare è scegliere la composizione del quantum dot; in
questo caso si utilizzano il selenio e il cadmio, dunque il quantum dot sarà fatto di selenurio di cadmio. Si
iniettano nel solvente caldo i precursori organo metallici che contengono il selenio e il cadmio, e da questi
verrà formato il quantum dot.
Dopodiché si abbassa la temperatura e questo abbassamento induce la nucleazione dei cristalli: nel disegno
si vede che si formano dei piccolissimi cristalli di selenurio di cadmio, poi mantenendo la T costante per un
certo tempo, il cristallo cresce fino a raggiungere la dimensione desiderata, la quale determina le proprietà
di emissione in fluorescenza.
Si sono scelti quindi dimensione e composizione.
A questo punto volendo ci si può anche fermare alla fine del terzo step, cioè alla configurazione A del qd.
In pratica poi viene fatto un extra passaggio (non è fondamentale ma lo spiega comunque, non ci si deve
confondere), che serve per creare una struttura del quantum dot più stabile: viene aggiunto un altro
semiconduttore, il solfuro di zinco, che va a crescere e disporsi sulla superficie (rosso più scuro) del
quantum dot che ha appena finito di crescere. Si origina cioè un quantum dot con due strati, due layer, di
materiali semiconduttori diversi: serve per migliorare ancora di più l’efficienza del quantum dot e ridurre il
fenomeno del photobleaching ancora di più.
3
Chieffallo/Martinengo
04 Bionanotecnologie (Mattu)
04/03/2022
Purtroppo tale struttura con doppio strato si chiama core shell, da non confondere col compartimento shell
e core visto nella lezione precedente. Core shell significa che il quantum dot ha due strati di due materiali
semiconduttori, non ha a che fare con i due compartimenti core e shell visti.
Ci si ritrova alla configurazione A.
A questo punto bisogna cambiare la superficie, renderla
idrofilica, come si fa?
Non serve ricordare il disegno, ne le note aggiunte a
destra in questa slide (numero 46).
Ci sono due grosse strategie:
1) Primo rettangolo: dopo la sintesi si va a sostituire il
layer idrofobico con un layer idrofilico, quindi si fa una
sostituzione del rivestimento;
2) Secondo rettangolo: si ha sempre il qd con
superficie idrofobica ma invece che sostituire il
rivestimento, se ne aggiunge un altro sopra idrofilico (si
fa una maschera).
Si arriva alla configurazione C in cui ci sono i ligandi
sulla superficie.
Alla fine si ha il quantum dot finale, la slide serve
per capire il concetto visto prima: in rosso è
evidenziato il compartimento core, quello centrale
della particella, che si compone da:
Quantum dot (nell’esempio prima era fatto
da selenurio di cadmio);
Layer che lo riveste (nell’esempio era
solfuro di zinco);
Eventualmente da altre componenti, non
serve sapere quali.
Il quantum dot ottenuto dalla sintesi è il core, il quale ha a sua volta una struttura a core shell (non
confodersi), con due strati; quello che nella scorsa lezione si era chiamato compartimento superficie è la
restante parte non in rosso, quello che c’è fuori e che interagisce con l’ambiente esterno, cioè lo strato
idrofilico che stabilizza il qd e tutti i ligandi che stanno sulla superficie per il riconoscimento selettivo. Anche
per i quantum dot si distinguono i compartimenti shell e core, il core è il quantum dot finale che da le
proprietà di imaging in fluorescenza, lo shell o superficie è formato da tutto ciò che interagisce con
l’ambiente esterno.
Lo shell (indicato in alto a sx) fa parte del core, il core è costituito da qd a struttura core shell in cui sono
presenti due strati diversi di materiali semiconduttori. Siccome entrambi concorrono alla proprietà in
fluorescenza del qd, sia il core che lo shell fanno parte di ciò che la lezione scorsa è stato chiamato il
compartimento core (in rosso).
4
Chieffallo/Martinengo
04 Bionanotecnologie (Mattu)
04/03/2022
Tutto ciò che è aggiunto in superficie è aggiunto per favorire dei processi, e forma il compartimento
superficiale (Shell), incluso il layer idrofilico che stabilizza la particella.
Il ligando permette di fare un riconoscimento selettivo ma non detta l’intera interazione con l’ambiente
esterno.
Shell e core insieme formano il quantum dot.
Lo shell interagisce con l’ambiente esterno, i ligandi con il
target.
Questa slide fa un riassunto. Ci sono 3 grossi modi in cui si
può modificare la superficie attaccando i ligandi: si possono
stabilire legami covalenti stabili, legami non covalenti
(streptavidina-biotina , legame molto specifico) o interazioni
elettrostatiche meno stabili tra ligando (che ha una sua carica
netta) e la superficie della particella, meno precisi rispetto ai
primi due.
Si vedono due esempi di utilizzo dei quantum dots.
C’è un quantum dot che ha una struttura core
shell, ha due strati (layer), il primo è fatto di
tellurio di cadmio e lo shell è solfuro di zinco.
La superficie del quantum dot è già resa
idrofilica, già pronta per l’interazione con
l’acqua, modificata con uno strato di un
polimero idrofilico in superficie, il PEG. Il PEG
ha un gruppo funzionale terminale che è un
gruppo amminico NH2 , a questo gruppo
amminico si va ad attaccare una molecola
formando un legame covalente.
Poi a tale molecola gialla viene attaccato un
ligando, che è una sequenza peptidica e si
chiama RGD (sequenza di arginina, glicina,
acido aspartico) (in basso a dx); anche il
ligando viene legato covalentemente
5
Chieffallo/Martinengo
04 Bionanotecnologie (Mattu)
04/03/2022
NON VA RICORDATA QUESTA CHIMICA, basta sapere che alla fine viene creato un qd con la struttura vista
in basso a sinistra verde.
Sulla superficie del qd si ha il PEG (strato idrofilico) più il ligando,
che è RGD; cosa fa tale ligando? Riconosce e si lega
selettivamente ad alcuni recettori presenti, ad esempio, su alcune
cellule tumorali, può quindi essere utilizzato per fare imaging sia
in vitro che in vivo (imaging di tessuti tumorali).
Applicazione:
Qui si vede il modellino del topo che ha
un tumore sul fianco destro; in questo
caso ci sono due utilizzi del qd.
Il primo sono le foto in alto a sx, nelle
quali i qd sono utilizzati per vedere se si
riesce a riconoscere il tessuto tumorale: si
impianta il tumore nel topo, per poi
espiantarlo dopo un certo tempo; a
questo punto si taglia il tessuto e questo,
che contiene in parte tessuto sano e in
parte tumorale, viene esposto ai qd.
Delle 4 foto, quelle a destra sono ottenute con i qd senza il ligando RGD e quelle a sinistra con il ligando in
superficie. Quando c’è il ligando si riconoscono le cellule tumorali, i qd si attaccano alle cellule tumorali ed
è possibile fare un riconoscimento in vitro sul tessuto: i qd si possono dunque usare come rilevatori della
presenza di cellule tumorali in un certo tessuto, ma senza il ligando non sono in grado di fare questo tipo di
riconoscimento. Funzionano perciò sull’espianto.
Nel secondo esperimento prima di togliere il tumore vengono iniettati i qd in circolo, essi si accumulano sul
tumore (si ricorda che essendo anche molto piccoli vengono facilmente smaltiti); dopo un certo tempo il
tumore viene estratto e analizzato in fluorescenza. La foto a sinistra è ottenuta con i qd con il ligando RDG,
quella a destra con i qd senza ligando RGD. Si vede che se c’è il ligando, i qd entrano nel tumore e ci
rimangono di più, se non c’è invece penetrano ma poi vengono eliminati, quindi se ne trovano pochi.
Tale esempio serve per far capire che i qd possono essere funzionalizzati con ligandi che permettono di fare
riconoscimento selettivo, si possono usare in vitro sulle sezioni di tessuto, ma anche in vivo sui piccoli
animali.
6
Chieffallo/Martinengo
04 Bionanotecnologie (Mattu)
04/03/2022
Qui si discute un‘applicazione per vedere come un certo
ligando interagisce col proprio recettore. Si vuole capire
quanto tempo impiega il ligando a interagire col recettore e
cosa succede in seguito a questa interazione.
Le cellule sono marcate in verde, il ligando è in giallo.
Quello che si vede è quanto velocemente il ligando si lega al
recettore sulle cellule, e a seguito di tale legame si capisce
che esso viene portato all’interno della cellula.
Il qd consente, facendo imaging in tempo reale, di fare studi
cinetici, cose che a volte non si può fare con i fluorofori tradizionali: per esempio si può studiare nel tempo
come un ligando interagisce con il proprio recettore.
È un esempio per far capire che nonostante la tossicità sono molto usati, dato che permettono di fare cose
che gli altri fluorofori non permettono di fare.
Effetto FRET
È il trasferimento di energia da un fluoroforo
ad un altro fluoroforo per effetto di
risonanza. È un fenomeno che non è
esclusivo dei qd, è caratteristico di diversi
fluorofori. Questo effetto richiede due
fluorofori (giallo e azzurro) non presi a caso,
sono due fluorofori che formano una coppia
FRET, cioè devono essere compatibili, inoltre affinché si verifichi tale effetto i due fluorofori devono trovarsi
vicini.
Dunque: effetto FRET= trasferimento di energia da un fluoroforo a un altro, non presi a caso, devono essere
compatibili, devono formare la coppia FRET e devono essere vicini, in particolare devono trovarsi a una
distanza inferiore a quella di un certo valore critico detto RAGGIO DI FORSTER.
Il primo fluoroforo, quello azzurro, si chiama donatore, mentre quello giallo si chiama fluoroforo accettore.
Quando i due fluorofori si avvicinano, il fluoroforo donatore viene eccitato secondo il suo spettro di
assorbimento, per esempio questo viene eccitato a 436 nm (lunghezza d’onda di eccitazione) ed emette
fluorescenza a 480 nm secondo il suo spettro di emissione: viene eccitato secondo il suo spettro di
assorbimento ed emette secondo il suo spettro di emissione.
480 nm cade nello spettro di eccitazione del secondo fluoroforo, quindi a 480 nm il secondo fluoroforo
viene eccitato ed emette a 535 nm. I numeri non vanno ricordati.
Quando i fluorofori sono vicini succede quindi che si eccita il donatore che emette a 480 nm, soltanto che
tutta l’energia emessa o quasi, invece che diventare fluorescenza, viene trasferita per effetto FRET all’altro
fluoroforo. Lui viene eccitato e risponde.
Si eccita il donatore a 436 nm, e invece di rilevare l’emissione del donatore si rileva l’emissione
dell’accettore, perché l’energia emessa del donatore è trasferita all’accettore, quindi si vede la sua
emissione.
7
Chieffallo/Martinengo
04 Bionanotecnologie (Mattu)
04/03/2022
Il trasferimento di energia per effetto FRET, quindi, richiede che lo spettro di emissione del fluoroforo
donatore sia almeno parzialmente sovrapposto con lo spettro di eccitazione del fluoroforo accettore,
affinchè succeda che quando uno emette l’altro viene eccitato.
Lo spettro di eccitazione del fluoroforo giallo deve essere almeno parzialmente sovrapposto allo spettro di
emissione del fluoroforo blu cosicchè quando uno emette, l’altro viene eccitato, se sono vicini. Questa è la
teoria dell’effetto FRET.
Esempio di applicazione dell’effetto FRET
Si stanno studiando modifiche di conformazione delle proteine, che hanno una struttura 3D complicata, la
quale può cambiare in funzione delle condizioni esterne, ad esempio il pH può variare la conformazione
della proteina; si può essere interessati a studiare come la proteina cambia la propria conformazione in
funzione di specifiche condizioni esterne. Ad esempio, si può decidere di attaccare i due fluorofori
(donatore e accettore) in due porzioni lontane della proteina. Quindi, quando la proteina ha questa
configurazione iniziale, i due fluorofori sono distanti, non c’è effetto FRET.
Si testano varie condizioni di pH, finché non se ne trova una per cui la proteina cambia conformazione, e
magari prende una conformazione arrotolata stretta: in questo caso donatore e accettore vengono portati
uno vicino all’altro, quindi i due fluorofori sono vicini e si verifica l’effetto FRET. Quindi quando si sta
monitorando la fluorescenza, dunque quando si eccita, se la proteina ha conformazione stesa si rileva
l’emissione del donatore, mentre quando la conformazione cambia invece di rilevate l’emissione del
donatore, si rileva quella dell’accettore.
Si può concludere che la proteina ha cambiato conformazione in un modo tale che donatore e accettore
sono stati portati vicini. Seguendo l’andamento della fluorescenza e sfruttando l’effetto FRET si può quindi
trarre un’informazione sul tipo cambiamento della conformazione della proteina ottenuto in seguito alla
variazione del pH.
Quindi sfruttando l’effetto FRET si possono usare delle modalità di rilevazioni importanti che possono dare
informazioni morfologiche ma anche servono per creare sonde di rilevazione basate sulla fluoroscenza,
molto precise.
I qd che hanno questi spettri di emissione così stretti sono degli ottimi fluorofori da sfruttare per l’effetto
FRET, posso anche essere messi in serie, cosa che con i fluorofori organici non si può fare.
In questo esempio il qd viene
utilizzato per creare una
sonda, un sensore, che rileva
la presenza di uno specifico
gene all’interno del DNA.
La domanda che ci si pone è:
dato un certo filamento di
DNA, in esso è presente o no
un certo gene G di interesse?
8
Chieffallo/Martinengo
04 Bionanotecnologie (Mattu)
04/03/2022
Un gene è una sequenza di basi nel DNA, quindi il gene G sarà una sequenza all’interno del DNA target che
si sta analizzando. La sequenza del gene è nota, si sa quali basi contiene.
Per prima cosa si deve denaturare il DNA, quindi si ottiene un singolo filamento invece che la doppia elica.
Si usa un sensore a base di qd che
sfrutta l’effetto FRET; il sensore è
un qd modificato in superficie con
la streptavidina, che serve per
attaccare sulla superficie del qd
una sonda di cattura (capture
probe). La sonda di cattura è un
filamento di DNA modificato con la
biotina.
La sonda di cattura e il qd, grazie
alla biotina, formano un legame molto forte e molto specifico; la sonda si lega in questo modo.
Si ha quindi il qd al quale è stato attaccato un filamento a singola elica di DNA sfruttando il legame
streptavidina-biotina; la sonda è detta “di cattura”, perché cattura il DNA target.
La capture probe è complementare al DNA target con una sequenza diversa da quella del gene di interesse;
essendo i due complementari, quando vengono messi insieme hanno una parte compatibile in cui formano
una doppia elica, mentre il resto rimane libero. Quindi, la capture probe cattura il DNA target e lo porta
vicino al qd, cioè al sensore.
C’è o no il gene nella sequenza del DNA target? Si c’è, ma come lo si capisce?
Per dire che G è presente nella sequenza, si usa una seconda sonda, la reporter probe (reporter perché è
quella che porta l’informazione, serve per rispondere alla domanda posta all’inizio). Questa sonda è
complementare con la sequenza del gene G, quindi la sonda deve essere in grado di formare la doppia elica
con il DNA target in corrispondenza della sequenza del gene G, è complementare a quella sequenza, ed è
legata ad un fluoroforo CY5 che forma una coppia FRET con il qd.
Quando si aggiunge la reporter probe, se c’è il gene G, essa farà la doppia elica in corrispondenza di G,
portandosi dietro anche il fluoroforo che le è legato. A questo punto il fluoroforo e il qd si trovano vicini,
quindi avviene il trasferimento di energia per effetto FRET, perciò se si monitora la fluorescenza, si eccita il
qd alla sua lunghezza d’onda di eccitazione e si va a vedere se si rileva l’emissione del qd o quella del
fluoroforo F dell’accettore.
Quando si rileva l’emissione di F, vuol dire che c’è stato trasferimento di energia dal qd al fluoroforo per
effetto FRET; quindi, il fluoroforo si trova vicino al qd e ha perciò riconosciuto il gene: la risposta è SI, c’è il
gene che si stava cercando.
Se invece monitorando si rileva soltanto l’emissione del qd, allora la risposta è NO, non c’è trasferimento di
energia per effetto FRET, il fluoroforo accettore non si trova vicino al qd, quindi non ha riconosciuto il gene.
Chiarimento sulla reporter probe: essa si lega alla sequenza del gene, essendo complementare a quella
sequenza. Al reporter è legato un fluoroforo che forma una FRET col qd. Quando sul qd si attacca il DNA
(tutto), rimane poi la sequenza del gene G, che rimane libera, qui si lega il reporter probe portandosi dietro
il suo fluoroforo F, che a questo punto si troverà vicino al qd: avviene quindi il trasferimento di energia per
effetto FRET dal qd al fluoroforo attaccato al reporter probe. Se questo succede significa che il reporter
9
Chieffallo/Martinengo
04 Bionanotecnologie (Mattu)
04/03/2022
probe si è legato, ha riconosciuto la sequenza presente nel DNA target, così facendo si è avvicinato al qd ed
è avvenuto un trasferimento di energia per effetto FRET. A questo punto si rileva la sua emissione e quindi
c’è il gene G nella sequenza del DNA target. Se non avviene trasferimento di energia per effetto FRET vuol
dire che il fluoroforo F non ha trovato la sequenza complementare e quindi non è arrivato vicino al qd: non
c’è il gene.
Quindi il reporter probe è composto da due part:, dalla sequenza complementare al gene e dal fluoroforo;
se c’è il gene G la sequenza complementare formerà la doppia elica con la sequenza di G, il fluoroforo sarà
vicino al qd, avverrà effetto FRET; se G non c’è la sequenza non legherà e il fluoroforo non viene avvicinato
al qd, non ci sarà trasferimento per effetto FRET. Tutto ciò si ricava monitorando il sistema in fluorescenza,
eccitando spesso il qd alla sua lunghezza d’onda e aspettando la fluorescenza.
DOMANDA: Qual è la probabilità che il qd e il fluoroforo si trovino vicini casualmente?
Bisogna dare il tempo affinché avvengano le reazioni e poi bisogna ripulire in modo che tutti i frammenti di
DNA e i probe che non hanno reagito vengano tolti: in questo modo, quando avviene la rilevazione si ha
solo quello che ha avuto il tempo di reagire, di formare le doppie eliche ecc e tutto il resto viene eliminato,
non ci sono reporter circolanti che possono falsare la misura.
10
Cucco/Margaria
05 Bionanotecnologie (Mattu)
09/03/2022
Si stava parlando di Quantum Dot con struttura core-shell che costituisce il compartimento
centrale, il compartimento core della particella e la superficie che, invece, è resa idrofilica
attraverso l'aggiunta del PEG. Dunque, per rendere la superficie idrofilica, si ha il PEG che è stato
legato direttamente sulla parte superficiale del quantum dot scambiando il polimero idrofobico
che rimane dopo la sintesi con una componente idrofilica, appunto, in questo caso, il PEG.
Questo PEG presenta un gruppo funzionale terminale ed è questo gruppo amminico NH2 a cui si
possono legare diverse molecole; in questo caso si vuole mettere sulla superficie del QD una
sequenza peptidica ed è una sequenza RGD ciclica, dove la sequenza RGD è costituita da argininaglicina-acido aspartico. La sequenza RGD vuole essere messa sulla superficie del QD in modo da
poter fare targeting; il problema è che queste sequenze, in generale le biomolecole, attaccate
direttamente alla superficie risultano poco mobili e, quindi, quando sono poco mobili sono anche
poco favorite nella interazione con il proprio recettore. Per migliorare l'interazione tra il ligando
che si mette in superficie e il suo recettore si può scegliere di aggiungere una piccola molecola
interposta tra la superficie e il ligando. L'aggiunta di questa piccola molecola, che si chiama
spaziatore, permette di creare una distanza maggiore tra il ligando e la superficie della particella e
quindi di consentire al ligando una maggiore libertà di movimento che poi si traduce in una
maggiore interazione con il proprio recettore. In questo caso si opta proprio per inserire una
molecola spaziatore che è un linker (tra i due CdTe nell’immagine) che termina con due
funzionalità differenti: la prima è stata scelta perché è in grado di reagire in modo selettivo con il
gruppo amminico presente sul PEG formando un legame covalente, ovvero un legame di tipo
amminico; quindi questo link si lega al gruppo amminico sul PEG e quindi alla fine si avrà la
particella con questa configurazione, dove il pallino rosa corrisponde al PEG a cui ora è legato il
linker da una parte; quindi, questa porzione ha reagito col PEG e ora si ha la particella con il PEG e
il linker in superficie.
1
Il linker serve per separare la bio-molecola, quindi il ligando, dalla superficie, creare più spazio in
modo che il ligando abbia più libertà di movimento e più libertà di movimento si traduce in una
maggiore interazione con il recettore. Si lega la molecola spaziatore al PEG attraverso questa
funzionalità. L’altra funzionalità presente sullo spaziatore riguarda il fatto che si tratta di un
gruppo malammide, altro gruppo reattivo, che è stata selezionata perché è in grado di reagire con
il gruppo tiolo, SH, presente sulla sequenza RGD, quindi in modo da attaccare la sequenza RGD alla
superficie; si fa perciò reagire il gruppo tiolo col gruppo malammide e, a questo punto, si ha la
particella nella configurazione (si vede in basso) in cui si vede il PEG con un pezzettino dello
spaziatore e il gruppo RGD attaccato sulla superfici. Quindi questi QD sono stati bio-funzionalizzati
con la sequenza RGD.
Quantum dot in vivo: applicazioni principali
Si vede ora cosa succede nell'applicazione in vivo: i QD vengono sia iniettati sull'animale che messi
a contatto con delle sezioni di
tessuto. La prima funzionalità di
cui si è parlato, è un gruppo
succinimidile, è un estere che
serve per reagire con il gruppo
amminico.
I QD funzionalizzati con le RGD
vengono confrontati con gli
analoghi QD non funzionalizzati.
Alcuni tumori sovra esprimono il recettore per l’RGD, in questo caso viene utilizzato come modello
tumorale un modello di glioblastoma, un tumore primario al cervello, le cellule sono U87 che
vengono sempre iniettate in modo sottocutaneo, il tumore viene estratto e viene sezionato, quindi
si hanno diverse piccole e sottili sezioni della massa tumorale (immagine). Sopra queste sezioni
vengono esposti i QD, quindi la sezione di tessuto viene coperta con una soluzione di QD e nel caso
dei QD con RGD, è in grado di interagire con le cellule tumorali, le riconosce, penetra all'interno e
le marca in fluorescenza, quindi si riesce a rilevare la fluorescenza dei quantum dot e nella sezione
di tessuto si evidenzia la presenza del tumore; questo fa vedere che si possono applicare i
quantum dot per fare analisi, cioè per fare staining, colorazione, delle sezioni di tessuto in vitro. La
stessa cosa non si ottiene utilizzando il quantum dot non funzionalizzato. In vitro c'è selettività
ovvero capacità di riconoscere la massa tumorale (primo modo).
In vivo, sempre con il modello animale e tumore (nel fianco destro) sottocutaneo, i QD vengono
iniettati per via endovenosa, quindi si ha sempre l'animale trattato con i QD funzionalizzati e non e
nel tempo viene eseguita la fluorescenza dentro l'animale vivo. A sei ore c'è un maggiore
accumulo nella massa tumorale in fluorescenza dei QD funzionalizzati con la RGD rispetto ai QD
non funzionalizzati. Estraendo la massa, analizzandola sempre in fluorescenza, si vede che con
2
l’RGD, rispetto al caso no, si ha una maggiore intensità di fluorescenza nella massa tumorale,
(l'intensità si legge sulla scala in basso).
Per concludere, bio-funzionalizzando, cioè modificando la superficie del quantum dot con specifici
ligandi, si ottiene specificità nel riconoscimento della massa tumorale che esprime il recettore
specifico, sia in vitro, come sistema di analisi sulle sezioni di tessuto, che in vivo.
Le parti colorate indicano la distribuzione non specifica delle particelle, vanno un po' dovunque, si
ha forte accumulo a livello del fegato, degli organi intestinali, e anche una rapida eliminazione.
L’iniezione è fatta nella coda, quindi quando si vedono queste fluorescenze a livello del punto di
iniezione vuol dire che una buona parte di quello che è stato iniettato è rimasto sotto cute nella
coda invece che andare in circolo (iniezione sbagliata).
Il fegato, i reni e la milza sono i principali organi di accumulo delle particelle una volta iniettate,
soltanto una piccolissima percentuale della dose iniettata effettivamente raggiunge il tumore, il
resto viene eliminato attraverso il fegato e i reni a seconda delle dimensioni delle particelle (si
vedrà). Ci possono essere altri effetti che sono legati alla fluorescenza di background dell'animale
perché i tessuti, anche per esempio nel caso dei topi il pelo, che possono generare auto
fluorescenza, quindi a seconda delle lunghezze d'onda di analisi si può rilevare una fluorescenza
che non è delle particelle ma è dell'animale.
Quantum dot in vitro: applicazioni principali
Possono essere utilizzati per marcare la superficie della cellula oppure per marcare il nucleo e il
citoplasma della cellula; utilizzando
quantum dot opportunamente
modificati in superficie si può
ottenere selettività per
compartimenti diversi della cellula,
sia per il nucleo che per il citoplasma,
quindi possono essere ampiamente
modificati per ottenere la selettività
desiderata. Il QD può essere usato
anche come marcatore secondario.
Più importante invece è l’utilizzo del
quantum dot per lo studio di processi
cellulari in tempo reale, in questo caso si sta studiando l'interazione tra un recettore, EGF
receptor, e il suo ligando, quindi il recettore si chiama EGFR detto anche erbB1, dove ‘r’ sta per
receptor, quindi il ligando è EGF. Il recettore si trova sulla superficie delle cellule, in verde, e le
cellule sono state modificate per emettere sempre questa fluorescenza verde, quindi il verde si
vede sempre perché lo emette la cellula. Si vuole vedere quanto tempo impiega il ligando a
interagire con il suo recettore, quindi si lega sul quantum dot il ligando e lo si mette a contatto con
3
le cellule. La stessa cellula viene seguita nel tempo e la fluorescenza gialla corrisponde al QD; nel
tempo il quantum dot interagisce con la membrana cellulare e piano piano si possono apprezzare
le dinamiche con le quali questo recettore viene trasportato all'interno della cellula. Quindi si
vedono comparire questi puntini rossi all'interno della cellula, quindi vuol dire che il ligando ha
interagito con la membrana cellulare in circa 500-700 secondi e poi, nel restante tempo, sono altri
circa 300-400 secondi, viene internalizzato. Usando i QD si possono studiare le dinamiche di
interazione tra, per esempio, ligando e recettore, quindi dinamiche che avvengono a livello
cellulare.
DOMANDE SU EFFETTO FRET (argomento già affrontato a lezione)
Lo stesso processo non si poteva fare semplicemente inserendo il reporter ed eccitando lo spettro
di emissione della cianina?
Ovviamente si può fare di eccitare solamente la cianina ma in questo modo si può verificare che il
riconoscimento del gene è avvenuto. Mettendo solo il reporter probe con cianina attaccata e
facendolo reagire con il DNA poi come si separano? Come si capisce che se si sta rilevando
fluorescenza effettivamente dalla cianina legata al DNA target oppure proveniente dalla cianina
che presente nella soluzione di reazione? In questo modo è più semplice perché si fa reagire il DNA
con il reporter probe, che a questo punto reagisce vicino al vostro QD, solo se la reazione avviene
rilevando lo shift in fluorescenza si può dire che è presente il gene di interesse altrimenti non c'è.
Due fluorofori possono sempre essere eccitati, anche separatamente, ma sfruttando questo
effetto si può capire che è avvenuta una reazione in vicinanza del fluoroforo di rilevazione, questo
ha cambiato la situazione nella soluzione di analisi.
È possibile che il gene ci sia ma non si raggiunga la distanza soglia?
No, in genere si scelgono porzioni di DNA abbastanza piccole, non tutto il DNA, in cui si sa che
probabilmente si trova il gene di interesse, perché si va a vedere se c'è o non c'è.
4
Domanda che la prof non legge ad alta voce
Il capture probe si lega sempre al DNA, si chiama probe di cattura proprio perché cattura il DNA, si
lega ad una sequenza che è sicuramente presente nel DNA target, quindi il DNA di sicuro si
avvicinerà al quantum dot. Se c'è il gene di interesse nel DNA anche il reporter probe si legherà,
cioè formerà la doppia elica con il gene con la sequenza complementare al gene di interesse che è
presente sul DNA target. Il reporter, a questo punto, con la cianina 5 attaccata si trova vicino al
quantum dot e così, sfruttando l'effetto FRE, si vede un cambio di rilevazione in fluorescenza e si
può dedurre che è presente il gene di interesse nel DNA.
La cianina 5 è legata alla sequenza di DNA complementare alla sequenza che caratterizza il gene
che interessa. A questo punto, la cianina 5 viene portata vicino al quantum dot e la FRET si genera
tra il quantum dot e la cianina 5 (pallino rosso sul reporter probe).
La streptavidina (triangolino nero) sta sul QD e la biotina (pallino nero) sul capture probe, è la
reazione streptavidina-biotina che fa sì che il capture probe si leghi al QD.
C'è probabilità che anche se il reporter non si lega al gene venga comunque rilevata la sua
emissione in uscita?
È possibile se si fa la reazione tutta nello stesso contenitore di reazione ma si può anche fare
separatamente: prima si fa reagire il DNA target con il reporter probe, poi si fa attaccare al QD;
però, per come descritto prima nel disegno, se la reazione avviene sul DNA già attaccato al QD è
possibile che, anche se è difficile che succeda, il reporter probe si avvicini in soluzione al QD quindi
si genera effetto FRET, pur rimanendo in sospensione; per evitare questo, si fa avvenire la
reazione, si dà il tempo, prima di rilevare, perché avvenga l'ibridazione del DNA, poi si lava via,
quindi si cercano di eliminare tutti i reporter probe che non si sono legati, e, infine, si fa la
rilevazione, minimizzando la possibilità di vedere effetto FRET tra il fluoroforo libero e il QD.
Altro possibile esempio di applicazione dell'effetto FRET in rivelazione utilizza delle strutture che si
chiamano molecular beacons o forcine molecolari (spiegherà dopo).
Per concludere i QD, si ripetono i concetti principali
che si trovano nello schema a destra.
Dimensioni nanometriche: ciò modifica le loro
proprietà ottiche rispetto al materiale tradizionale in
forma di bulk.
5
MOLECULAR BEACONS
Sonde molecolari a forma di forcina,
utilizzati per riconoscere specifiche
sequenze di DNA, sfruttano il
trasferimento di energia per effetto
FRET tra un fluoroforo, che può
essere un QD, e un’altra molecola,
chiamata quencher.
È costituito da due porzioni
principali, una superiore chiamata
loop e una inferiore chiamata stem o
gambo.
Il gambo è una doppia elica di DNA, mentre il loop è una singola elica di DNA; inoltre, il gambo è
più corto rispetto la sequenza di loop, quindi la sequenza di basi è più piccola. Il loop presenta la
sequenza di nucleotidi, di basi complementare ad una certa sequenza
che si sta cercando nel DNA target, la sequenza è la sonda e si vuole
sapere se nel DNA in analisi è presente la sequenza evidenziata in giallo
nella slide. Per capire se è presente si deve sfruttare l’effetto FRET: al
gambo sono attaccati fluoroforo e quencher; quando sono vicini
(struttura a forcina chiusa come nel diesgno) risentono dell’effetto FRET
perché le due molecole sono vicine.
Essere vicini cosa significa?
Il quencher è fatto in modo che il suo spettro di assorbimento sia quasi completamente
sovrapposto a quello di emissione del fluoroforo (grafico in basso a destra nella slide), dunque, il
fluoroforo eccitato vorrebbe emettere la sua fluorescenza caratteristica ma non può farlo perché
tutta l’energia che emette viene assorbita dal quencher (quest’ultimo non emette niente). Non si
vede niente, nessuna risposta, nessuna emissione in fluorescenza dal fluoroforo, perché tutta
viene assorbita dal quencher; quindi,
nella configurazione chiusa non c’è
fluorescenza, per effetto FRET.
Se si riconosce la sequenza di
interesse, il molecular beacon si apre.
La sequenza complementare va a
ibridare, cioè va a formare la doppia
elica con il suo complementare
presente sul DNA target, il gambo si
rompe e il fluoroforo e il quencher vengono portati a distanza. La fluorescenza del fluoroforo non
6
è più mascherata dal quencher quindi può essere rilevata; dunque, dopo averlo eccitato si rileva la
fluorescenz, altrimenti l’energia viene interamente trasferita al quencher e non si rileva nulla.
Perché si rompe la doppia elica?
Il gambo è più corto del loop, il gambo è costituito da 5-8 bp mentre il loop 25-30 bp (base pare,
paia di basi). Se si forma la doppia elica l’energia libera della molecola di DNA si minimizza, quindi
si ha una struttura più stabile e dunque con minore energia libera associata. Qua si ha una singola
elica e dunque una maggiore energia libera rispetto al gambo; dal punto di vista termodinamico si
preferiscono le reazioni che vanno a minimizzare l’energia libera, quindi la reazione, ibridazione,
tra la singola elica più lunga e il suo complementare presente nel DNA target è favorita, dal punto
di vista energetico, e avviene, si sacrifica invece la porzione stabile perché, anche se fosse
instabile, contiene minore energia libera: si favorisce la reazione che minimizza l’energia libera del
sistema, ovvero tra la singola elica nel loop e il suo complementare sul DNA target. Il molecular
beacon per minimizzare la propria energia libera tende a reagire con la sequenza target, a formare
la doppia elica nella zona più instabile del loop e quindi a stabilizzarla.
Tornando all’esempio del molecular beacons
formato da un QD e un quencher, che è una
nanoparticella d’oro. Quando la struttura è
ripiegata il QD trasferisce la sua energia al
quencher, particella d’oro, e non si vede
fluorescenza; se invece si ha la reazione tra
beacon e target DNA la forcina si apre, si ha la
reazione, l’ibridazione, e il QD viene portato
lontano dal quencher, quindi si rileva la
fluorescenza.
7
MOLECULAR BEACONS IN REAL-TIME PCR
Ultima possibile applicazione dei molecular beacons si ritrova nella PCR in tempo reale, tecnica di
amplificazione del DNA; durante la PCR il DNA viene continuamente copiato per ottenere un
numero molto più alto di
molecole di DNA tutte uguali.
Per poter copiare il DNA
bisogna prima di tutto
denaturarlo, cioè bisogna
passare dalla doppia elica alle
due singole eliche e, a quel
punto, copiare. Si deve prima
denaturare il DNA, quindi si
apre e poi lo si copia. Per
copiare il DNA nella PCR
servono: un primer, vale a
dire una piccola sequenza di
DNA artificiale complementare al DNA che si sta copiando; quindi il primer si andrà a legare, andrà
a formare la doppia elica con il DNA che si vuole copiare, e da lì si fa partire l'estensione, la
copiatura del DNA. Il primer serve per far partire la reazione. La seconda cosa che serve è la DNA
polimerasi, è l'enzima che polimerizza il DNA; infine, si devono aggiungere (non disegnati) i vari
nucleotidi artificiali (mattoncini) che la DNA polimerasi prende e attacca estendendo piano piano
la catena.
A cosa può servire un molecular beacon che sfrutta l'effetto FRET nella PCR real-time?
Si può creare questa sonda, questo beacon, in modo che sia una sequenza molto piccola di basi
per cui, nel beacon, il fluoroforo e il quencher si trovano sempre vicini tra di loro e non si rileva
l'effetto FRET. Questa sequenza è molto piccola, complementare a una piccola porzione del DNA,
quindi andrà a legarsi al DNA non appena verranno aperte le doppie eliche; si andrà a legare alla
singola elica di DNA. Quando arriva la DNA polimerasi, continua ad estendere il DNA e quindi va a
inserire i suoi nucleotidi e il fluoroforo verrà staccato; a questo punto il fluoroforo viene liberato in
soluzione, non è più vicino al quencher e si può rilevare l’emissione del fluoroforo. Ogni volta che
una molecola di DNA viene copiata si libera una molecola di fluoroforo; quindi, più volte il DNA
viene copiato, più molecole di fluoroforo vengono liberate e maggiore sarà l'intensità della
fluorescenza che si rileva nel sistema di analisi. Rilevando l'intensità di fluorescenza si risale a
quante copie del DNA sono state fatte.
Ciò che costituisce la struttura del DNA, gli zuccheri, vengono eliminati dalla DNA polimerasi che
passando ne crea uno nuovo, quindi polimerizza la catena aggiungendo nuovi nucleotidi, stacca
queste parti artificiali che si erano appaiate ma non avevano ancora formato la doppia elica
stabile.
8
In soluzione è molto più difficile che si trovino vicini perché c'è molto spazio quindi il volume è
elevato, per cui è difficile che fluoroforo e quencher si trovino vicini; vengono mantenuti vicini
soltanto da questa struttura, da questa catena, quindi quando questa viene rotta si allontanano ed
è molto improbabile che si trovino così vicini da risentire dell'effetto FRET. Chiaramente, come in
tutte le rilevazioni in fluorescenza, non si conosce il numero esatto di copie fatte (si tratta di
milioni di copie), questa finezza nella discriminazione tra il numero di copie create non c'è, si può
stimare in modo abbastanza preciso il numero di copie ottenute in funzione della intensità di
fluorescenza che viene prodotta.
Nanoparticelle metalliche
Le nanoparticelle metalliche sono le particelle d'oro e le nanoparticelle di ossidi di ferro;
quest’ultime hanno caratteristiche che
vengono definite super
paramagnetiche al di sotto di una certa
dimensione critica, che è circa 128 nm.
Tipicamente la dimensione è
nell’intorno dei 100 nm, tra qualche nm
e 100 nm, quindi si rileverà il fenomeno
del superparamagnetismo.
Le particelle di ossidi di ferro
presentano caratteristiche differenti rispetto al materiale in forma di bulk; il ferro è un materiale
ferromagnetico, quindi questa caratteristica dell'essere super paramagnetiche deriva dalle
dimensioni nanometriche, è una modifica delle proprietà del materiale che viene con l’averlo
prodotto alla nanoscala.
Curve di magnetizzazione dei materiali
Qual è la differenza tra un materiale
ferromagnetico, paramagnetico e super
paramagnetico?
I materiali ferromagnetici sono materiali
che, una volta esposti a un campo
magnetico esterno, si magnetizzano e
mantengono la loro magnetizzazione
anche quando il campo magnetico
esterno viene rimosso; per differenza i
materiali paramagnetici (la curva verde) si magnetizzano quando viene applicato un campo
9
magnetico esterno ma si smagnetizzano quando il campo
esterno viene rimosso. Si vede nel grafico il campo
magnetico esterno e la magnetizzazione indotta nel
materiale: se si applica il campo magnetico esterno il
materiale ferromagnetico si magnetizza, quindi acquisisce
una certa magnetizzazione; quando si azzera il campo
esterno, quindi lo si riporta a 0, il materiale ferromagnetico
segue la curva rossa e rimane magnetizzato, quindi ha una
magnetizzazione residua. Se si rimuove il campo magnetico
il materiale mantiene la sua magnetizzazione perché il
materiale, a livello microstrutturale, è costituito da diversi
domini, chiamati domini ferromagnetici, ognuno dei quali
presenta un allineamento casuale, quindi sono allineati in
modo casuale gli uni rispetto agli altri.
Applicando un campo magnetico esterno lungo una direzione (in figura sopra esempio freccia
verticale), i domini magnetici nel materiale tendono ad allinearsi tutti con il campo che si sta
applicando dall'esterno, tutti prendono questo
allineamento parallelo a quello del campo
esterno. Alcuni domini, che sono quelli che
erano già orientati in modo favorevole,
tenderanno a crescere rispetto agli altri, quindi
crescendo diventano più grandi, vanno a
creare delle tensioni, a spingere sui domini più
piccoli e creano delle tensioni a livello delle
interfacce tra i domini magnetici. Queste
tensioni ostacolano poi il ritorno dei domini
più piccoli alla loro configurazione rilassata,
quando il campo viene rimosso. Quindi si
applica il campo, i domini si allineano in direzione del campo, i domini allineati favorevolmente
crescono e premono sugli altri, quindi generano delle tensioni. Ora si rimuove il campo esterno, i
domini vorrebbero tornare nella loro configurazione rilassata ma non possono perché la crescita
dei domini orientati favorevolmente li comprime, impedendo che ritornino alla loro
configurazione originale; il materiale mantiene una magnetizzazione netta anche quando voi si
rimuove il campo esterno. Questi sono i materiali ferromagnetici.
Perché gli ossidi di ferro di dimensioni nanometriche non sono più ferromagnetici?
Perché la dimensione della particella è più o meno quella di un singolo dominio magnetico: ogni
particella ha una dimensione confrontabile o più piccola rispetto a quella del singolo dominio
magnetico nel materiale, quindi quando si va ad applicare il campo esterno, tutte le particelle si
allineano con il campo ma, siccome ciascuna particella è come se fosse un singolo dominio, non c'è
nessun altro dominio vicino che può comprimere, quindi, dato che non c'è l'effetto di tensione nel
10
materiale esercitato dall'interazione tra domini magnetici che è presente nel materiale in forma di
bulk, le particelle dello stesso materiale (cambia solo la dimensione), quando si rimuove il campo,
ritornano tutte nella loro configurazione originale. Non c'è quell’effetto di tensione esercitata dai
domini vicini che impedisce il ritorno dei domini nella loro configurazione originale; non essendoci
questo effetto il materiale non mantiene la magnetizzazione quando il campo viene rimosso, le
particelle si riallineano casualmente esattamente come prima, come prima dell'applicazione del
campo. Sono costituite da un materiale che allo stato di bulk è ferromagnetico ma che, per via
della piccola dimensione, si comporta come un materiale paramagnetico.
La differenza tra i materiali super paramagnetici e i materiali paramagnetici è la magnetizzazione
che possono acquisire: i materiali paramagnetici si magnetizzano con il campo esterno applicato e
si smagnetizzano quando si rimuove. A parità di campo magnetico applicato, i materiali
paramagnetici si magnetizzano molto meno rispetto ai materiali ferromagnetici, si dice che hanno
una minore suscettibilità magnetica. I materiali super paramagnetici conservano l’elevata
suscettibilità magnetica dei materiali ferromagnetici da cui derivano, ma hanno un
comportamento simile a quello dei materiali paramagnetici per via delle dimensioni
nanometriche, dunque perdono la magnetizzazione quando il campo viene rimosso.
Domanda: ruota fisicamente la particella o i domini?
La particella ruota e si vedrà che è un vantaggio che si sfrutterà nelle applicazioni terapeutiche
della nanoparticella stessa.
11
Buffoni/Sinnona
06_BIONANOTECNOLOGIE (Mattu)
10/03/2022
Ossidi di ferro
Le proprietà degli ossidi di ferro possono essere utilizzate per varie applicazioni in nanomedicina.
L’ossido di ferro è una particella piena, quindi non c’è una cavità all’interno della quale si possono
incapsulare i farmaci però possono essere utilizzati per trasportare farmaci e acidi nucleici (farmaci
biologici per terapia genica), a patto che i farmaci siano legati sulla superficie della particella. Quindi,
nel caso di trasporto di farmaco bisogna mettersi vicino alla superfice della particella, non ci si può
mettere all’interno. Queste sono due applicazioni drug and gene delivery che richiedono la presenza
dell’agente terapeutico in superficie.
Possiamo utilizzare gli ossidi di ferro anche per la terapia termica, sfruttando il fatto che le
nanoparticelle di ossido di ferro si allineano con il campo magnetico esterno alternato applicato.
Cambiando la direzione del campo magnetico le particelle ruotano continuamente lungo il loro asse
e si riscaldano. Quindi, generando calore possono essere utilizzate per alcune terapie che si basano
sullo sviluppo locale di calore. Le nanoparticelle di ossido di ferro possono essere utilizzate come
mezzo di contrasto anche per imaging medico, in particolare per risonanza magnetica.
Anche per le particelle magnetiche di ossido di ferro identifichiamo 2 strutture: core e shell.
Il core è la nanoparticella di ossido di ferro, mentre lo shell può essere
costituito da polimeri, per esempio polimeri idrofilici, come il PEG.
Quando si aggiunge il PEG nel compartimento superficiale si ottengono
le solite particelle STEALTH. Questo per far capire che questi concetti
si applicano a tutti i tipi di nanomedicina. Ci sono poi alcune
caratteristiche differenti, per esempio gli ossidi di ferro sono differenti
dai quantum dot in termini di possibile applicazione, così come
differiscono dalle particelle d’oro e dalle particelle polimeriche. Altri
possibili costituenti dello shell possono essere surfattanti organici,
componenti inorganici, cioè non-polimerici (esempio ossido di silicio
che può essere messo in superficie per migliorare alcune proprietà come la biocompatibilità dei
quantum dots), molecole bioattive (quello che noi abbiamo chiamato ligandi). Tutte le modifiche
superficiali fatte su ossidi di ferro hanno lo scopo di stabilizzare la forma e ridurre fenomeni di
aggregazione; se non viene messo qualcosa in superficie le particelle tendono a legarsi le une con le
altre. Si desidera che le particelle rimangano separate le une dalle altre, ma senza mettere nulla in
superficie per stabilizzarle, le particelle tenderanno ad aggregarsi e a precipitare.
Si vuole che le particelle rimangano sospese in acqua.
Gli ossidi di ferro sono più biocompatibili dei quantum dots, ma non sono biodegradabili; essi
tendendo ad accumularsi in organi non bersaglio come cervello e reni e se non smaltiti
adeguatamente ad esempio attraverso le urine, cioè i meccanismi naturali di clearance,
permangono a lungo all’interno dell’organismo. Tutte le particelle inorganiche hanno il problema
dell’accumulo, mentre le particelle polimeriche vengono facilmente degradate dall’organismo e non
danno grandi problemi di accumulo.
Riassumendo: il core contribuisce agli effetti di imaging o terapeutici mentre il compartimento
esterno (shell) può essere rappresentato da molecole di targeting, molecole funzionali, un
rivestimento polimerico o altri agenti di imaging, dando quindi la possibilità di fare riconoscimento,
terapia ed eventualmente di aggiungere un’altra modalità di imaging da combinare a quello di
risonanza magnetica.
1
Buffoni/Sinnona
06_BIONANOTECNOLOGIE (Mattu)
10/03/2022
Nanoparticelle di ossido di ferro come mezzo di contrasto per MRI
Cominciamo con l’applicazione della nanomedicina degli ossidi di ferro come agenti di contrasto in
risonanza magnetica.
L’ imaging in risonanza magnetica sfrutta la presenza di atomi di idrogeno che si trovano nell’acqua
dei tessuti quando questi vengono esposti ad un campo magnetico esterno. I protoni idrogeno
possono essere pensati come dei piccoli magneti, quindi ciascuno dotato di un suo momento
magnetico, quindi un vettore magnetizzazione. Se gli atomi di idrogeno non sono influenzati da un
campo magnetico esterno, i protoni di idrogeno sono orientati in modo casuale gli uni rispetto agli
altri
e
la
magnetizzazione
risultante
nel
tessuto
è
nulla.
Se si applica un campo magnetico esterno (B0), i protoni idrogeno tendono ad allineare il proprio
vettore magnetizzazione in direzione parallela al campo esterno (B0). I vettori magnetizzazione
possono essere scomposti in una componente longitudinale e una componente trasversale. Quando
di applica B0 la componente longitudinale (parallela al campo esterno) dei vettori magnetizzazioni
degli atomi di idrogeno è massima, mentre la componente trasversale avrà valore zero.
Il tessuto acquisisce una magnetizzazione netta
nella direzione del campo esterno B0. Mentre la
componente trasversale sarà zero. Il tessuto si è
magnetizzato
assumendo
un
vettore
magnetizzazione risultante allineato a B0.
Applicando
poi
un
campo
magnetico
perpendicolare al campo magnetico esterno B0, i
protoni idrogeno tendono a ruotare nella direzione
del secondo campo applicato; ruotando la
magnetizzazione netta del tessuto, avrà una
componente longitudinale e una trasversale.
Quando viene rimosso il secondo campo, i protoni
tendono a riallinearsi con il primo campo magnetico
esterno e vettore magnetizzazione risultante nel
tessuto torna ad allinearsi con il primo campo B0 e il
vettore magnetizzazione risultante nel tessuto
ritorna ad avere solo la componente longitudinale e
nessuna componente trasversale (fenomeno di
rilassamento).
Il fenomeno di rilassamento è caratteristico dei
tessuti e dipende dall’interazione tra i protoni idrogeno (spin) e il tessuto circostante e anche
dall’interazione tra protoni idrogeno.
2
Buffoni/Sinnona
06_BIONANOTECNOLOGIE (Mattu)
10/03/2022
Il fenomeno di rilassamento può essere quindi suddiviso in due fenomeni simultanei: il rilassamento
spin-reticolo ed il rilassamento spin-spin.
Ciascuno di questi fenomeni è caratterizzato da un certo tempo (T1 E T2).
T1 (rilassamento spin-reticolo) è il tempo necessario perché il vettore
magnetizzazione recuperi la sua componente longitudinale, per la
precisione al 63% del suo valore massimo.
T2 (rilassamento spin-spin) è il tempo necessario alla componente
trasversale del vettore magnetizzazione per tornare a zero.
Per la precisione che decada al 37% del valore iniziale.
Tessuti diversi hanno contenuto d’acqua diverso,
componenti cellulari diversi e quindi diverso tempo di
rilassamento
in
T1
o
in
T2.
Per vedere attraverso imaging un tumore in un
tessuto in stato avanzato, ha un diverso tempo di
rilassamento rispetto al tessuto sano in cui è
contenuto. Se i tessuti sono diversi il tempo
caratteristico sarà diverso e si vedrà contrasto tra i
tessuti che hanno diverso tempo di rilassamento. Non
sempre è possibile distinguere i tessuti sulla base del
loro normale comportamento al rilassamento; per
esempio, un tumore in fare iniziale non differisce più
di tanto dal tessuto sano e il contrasto potrebbe non
essere così evidente.
3
Buffoni/Sinnona
06_BIONANOTECNOLOGIE (Mattu)
10/03/2022
Esistono gli agenti di contrasto che migliorano il contrasto in area oggetto di imaging.
Gli agenti di contrasto possono agire su T1 (accelerando il tempo di recupero della magnetizzazione
longitudinale). Gli agenti di contrato che agiscono su T1 sono chiamati agenti di contrasto positivi
e generano un’immagine di contrasto più chiara. L’immagine in risonanza magnetica sarà più chiara
rispetto al background.
Gli agenti di contrasto che agiscono su T2 accelerano il tempo di decadimento della componente
trasversale del vettore magnetizzazione e così facendo generano un contrasto negativo. L’immagine
apparirà più scura rispetto al background.
Esempio di agente di contrasto T1 è il gadolinio che in risonanza magnetica da un’immagine più
chiara ed è perciò preferito, in quanto immagini più chiare sono più semplici da interpretare. Gli
agenti di contrasto di tipo T2, come le nanoparticelle di ossido di ferro danno un’immagine più scura
e perciò possono portare a confusione con rumore di fondo (artefatti del tessuto) e rendere più
difficile l’interpretazione dell’immagine.
Per questo motivo gli ossidi di ferro possono essere combinati con altri agenti di imaging per
migliorarne gli effetti, come isotopi radioattivi per l’imaging PET.
(Esempio preclinico) Combinando un
isotopo radioattivo del rame (rame64)
con un ossido di ferro in risonanza
magnetica si migliora il contrasto scuro
nel linfonodo. Combinando anche con
l’imaging PET si nota l’accumulo del
tracciante radioattivo dando due
informazioni complementari, andando
così a supplire alle carenze del primo.
Viene così migliorata l’efficienza.
Terapia ipertermica dei tumori
Applicando un campo magnetico esterno alternato, cambiando in continuazione la freccia del
vettore magnetizzazione, la nanoparticella ruota, questa rotazione continua genera un calore
localizzato, con temperature superiori anche ai 60⁰C. Riuscendo ad iniettare e far accumulare le
nanoparticelle nel tumore, ad esempio attraverso l’effetto EPR, scaldandole poi attraverso
l’applicazione del campo magnetico dall’esterno, si riescono a raggiungere temperature elevate
all’interno della massa cellulare. Le alte temperature sono mal sopportate dalle cellule, portandole
ad apoptosi. Si riesce così ad ottenere una terapia che sfrutta una generazione localizzata di calore.
4
Buffoni/Sinnona
06_BIONANOTECNOLOGIE (Mattu)
10/03/2022
Si è più selettivi nei confronti del tumore rispetto ai vasi
sani che lo circondano grazie all’architettura dei vasi
sanguigni dei tumori di cui si è parlato nella scorsa
lezione. I vasi sanguigni nei tumori sono molto
disorganizzati e non molto capaci di scambiare calore
con l’esterno; il calore generato nella massa viene
smaltito
con
difficoltà.
Viceversa, il tessuto sano scambia calore con facilità, quindi è più in grado di smaltire il calore e
risulta meno danneggiata dalle alte temperature. È possibile così indurre la morte programmata di
cellule tumorali.
Questi
approcci
sono
usati
anche
in
molti
trial
clinici.
Sono presenti però alcuno problemi: il primo problema è che per ottenere un aumento apprezzabile
della temperatura bisogna iniettare alte dosi di nano particelle, ma non sono biodegradabili
(generano fenomeni di accumulo). Un secondo problema è la generazione di meccanismi di
autoprotezione delle cellule tumorali che generano fenomeni di autoprotezione, diventando
resistenti a trattamenti di ipertermia.
Esempi in fase di trial clinico applicati in piccoli studi controllati:
NANOPROBES
nanoparticelle per iniezione sistemica che
attraverso effetto EPR vengono fatte
accumulare nel tumore e poi scaldate
attraverso un campo magnetico esterno
alternato che genera una produzione locale
di calore. Per migliorare la biocompatibilità
degli ossidi di ferro in questo sistema è
sfruttato un rivestimento con coating
polimerico la cui composizione non è nota.
È un sistema in fase di sviluppo preclinico,
perciò si sono effettuati solo test su piccoli
animali di piccola dimensione, cioè topi che
presentano
un
modello
tumorale
sottocutaneo iniettato nella zona del
fianco. La zampa dell’animale viene inserita
all’interno di un magnete e viene fatta
oscillare su e giù, generando il campo
magnetico alternato esterno, con conseguente surriscaldamento degli ossidi di ferro. Nella massa
tumorale si raggiungono temperature di 65 gradi (rosso), nelle zone limitrofe la temperatura è di 40
gradi (verde), come si può vedere nella mappa di temperatura.
All’interno della massa tumorale si raggiunge il massimo della temperatura che si traduce in una
maggiore sopravvivenza dei topi.
5
Buffoni/Sinnona
06_BIONANOTECNOLOGIE (Mattu)
10/03/2022
La curva di sopravvivenza riporta i giorni e la
percentuale di animali ancora vivi a ciascun tempo
dell’esperimento.
All’inizio dell’esperimento il 100% degli animali è
vivo. Ogni gradino della curva rappresenta un
evento di morte durante il trattamento.
Al giorno 20 abbiamo 1 soggetto morto e quindi
un gradino nella curva. La stessa cosa al giorno 30.
Il grafico evidenzia una sopravvivenza del 78%, in
caso di trattamento, cioè ci sono 7 su 9 animali
vivi.
Gli animali sono trattati con i vari controlli: solo
particelle magnetiche senza campo esterno,
nessun trattamento, solo campo magnetico esterno alternato senza nanoparticelle.
Tutti i controlli lasciano lo studio dopo circa 10 giorni. Nessun animale sopravvive nel lungo termine.
Nel caso degli animali trattati con nanoparticelle di ossidi di ferro e campo magnetico esterno, la
sopravvivenza aumenta: gli animali sottoposti a trattamento sono vivi anche 150 giorni dal
trattamento. L’approccio sembra essere promettente.
HYPERTHERMIA
Video mostrato in aula: si vuole iniettare per via endovenosa delle particelle di ossido di ferro per
sfruttare l’effetto EPR e per ridurre la tossicità delle particelle fanno questo rivestimento polimerico
che non altera le proprietà magnetiche della particella che si trova all’interno. L’effetto EPR fa
accumulare le particelle nel tumore perché i vasi sanguigni sono più permeabili, a questo punto
applicano il campo magnetico esterno. Il rivestimento polimerico potrebbe degradarsi con il
riscaldamento ma è un’informazione che non è stata rilasciata.
Le temperature che si raggiungono nella massa tumorale sono molto più elevate rispetto ai tessuti
interni.
NANOTHERM THERAPY
Si tratta di particelle di ossido di ferro con rivestimento polimerico, per ridurre la tossicità ed
aumentare la stabilità (più compatibile ma rimane biodegradabile), come l’esempio precedente. La
differenza è che questo sistema prevede l’iniezione delle particelle direttamente nella massa
tumorale, non è previsto per l’iniezione sistemica. È per questa ragione usato per tumori localizzati,
principale tra questi il glioblastoma multiforme che è un tumore primario al cervello, per cui la
terapia primaria è rappresentata dalla rimozione chirurgica seguita da radioterapia e chemioterapia,
6
Buffoni/Sinnona
06_BIONANOTECNOLOGIE (Mattu)
10/03/2022
ma tipicamente il tumore tende a ricomparire dopo alcuni mesi o alcuni
anni e le ricorrenze non vengono trattate allo stesso modo infatti non si fa
un secondo intervento di rimozione ma solo chemioterapia e radioterapia.
Il sistema NanoTherm è in trial clinici per il trattamento di glioblastomi
multiformi ricorrenti, quindi nel caso di pazienti che presentano una
seconda ricomparsa del tumore.
Il rivestimento polimerico è brevettato.
Dopo l’iniezione viene sottoposto il paziente ad un campo magnetico esterno per un ora e
l’operazione può essere ripetuta fino a sei volte con una sola iniezione.
I risultati del trial clinico non randomizzato (non ci sono gruppi di pazienti trattati con trattamenti
diversi, tutti i pazienti ricevono il trattamento con NanoTherm e in alcuni casi anche con
radioterapia) non consentono di distinguere fra gli effetti del possibile accoppiamento con altre
terapie; inoltre manca il gruppo di controllo che sono i pazienti che ricevono il trattamento migliore
ora disponibile, ciò perché esiste già molta letteratura e dati a riguardo.
Le particelle vengono iniettate direttamente nella massa tumorale.
Nell’ immagine radiografica gli ossidi di
ferro danno contrasto in negativo, quindi si
ha un’immagine più scura nei punti di
accumulo.
Vi sono poi delle mappe in temperatura. La
linea rossa evidenzia la temperatura
raggiunta dalla massa tumorale (50 gradi) e
la linea blu rappresenta la temperatura
raggiunta nella zona limitrofa alla massa
tumorale (40 gradi).
Nella curva di sopravvivenza è evidenziata
una sopravvivenza media di 11/14 mesi
contro 6 mesi circa per i pazienti sottoposti
a terapia standard (la migliore terapia
attualmente disponibile). Non sappiamo se
i dati di sopravvivenza forniti si riferiscano
a pazienti sottoposti a solo trattamento
con nanoparticelle o trattamento con
nanoparticelle più radioterapia. È solo un
trial clinico iniziale, se tutto va bene si
procederà con trial clinici più complessi.
7
Buffoni/Sinnona
06_BIONANOTECNOLOGIE (Mattu)
10/03/2022
TRASCINAMENTO MAGNETICO (Magnetic dragging)
Sfrutta la proprietà magnetica della
particella di ossido di ferro attraendola e
facendola accumulare nel sito di interesse
attraverso l’applicazione di un magnete
esterno. Non affidandosi solo all’effetto
EPR (non funziona sempre) si migliora
l’effetto attraverso l’applicazione di un
campo magnetico esterno nella zona di
interesse usando il flusso sanguigno per
farle accumulare nella zona vicino al
magnete. Si funzionalizza la particella
magnetica legando alla superficie dei
farmaci, in modo che molto più farmaco
vada ad accumularsi nella massa tumorale, con conseguente miglioramento dell’effetto
terapeutico. Oltre al trasporto mirato di farmaci si può utilizzare anche precedentemente alla
terapia termica (non risultano ancora applicazioni cliniche, siamo a livello preclinico).
Esempio: viene trascinato il farmaco PACLITAXEL grazie ad un sistema di nanoparticelle attratte da
un magnete esterno. Nello studio in trial clinico su tumori all’esterno della zampa di topo, nel caso
di animale non trattato (somministrazione solo di soluzione salina) il tumore appare di grande
dimensione.
Nel caso di trattamento con PACLITAXEL (TAXOL della formulazione brevettata), l’animale presenta
ulcerazioni della massa. Rispetto all’utilizzo del farmaco libero le particelle permettono di ridurre la
massa tumorale. Misurando con un calibro si vede che con il trattamento agli ossidi ferro il tumore
è effettivamente più piccolo.
8
Buffoni/Sinnona
06_BIONANOTECNOLOGIE (Mattu)
10/03/2022
Con lo stesso approccio (modello tumorale sottocutaneo, iniezione per via sistemica nella vena
caudale, campo magnetico applicato alle particelle di ossido di ferro) ma con differente farmaco
(Doxorubicina) la sopravvivenza è per quasi tutti gli animali a 60 giorni dall’iniezione. Misurando il
quantitativo di ferro, cioè delle nanoparticelle di ferro; la barra in arancione corrisponde alla
quantità di ferro nel muscolo della coscia che a sua volta corrisponde al punto in cui è stato messo
il magnete. Nei tessuti si nota una più alta percentuale di ferro nella zona tumorale rispetto al caso
della sola presenza dell’effetto EPR. Effettivamente il trascinamento magnetico consente di avere
un accumulo, a livello della massa tumorale, molto maggiore rispetto al solo effetto EPR.
Effettivamente si può utilizzare per incrementare il targeting tumorale (targeting intelligente).
Guardando il grafico del volume del tumore, la curva in blu
corrisponde al trattamento con solo effetto EPR.
Si nota che l’effetto terapeutico non è stato accentuato molto
dall’aggiunta del magnete. È vero che la sopravvivenza aumenta
con l’utilizzo del metodo, però questi risultati non sono poi così
promettenti; in primis perché tra trattamento con magnete ed
effetto EPR non c’è una differenza così netta, ma soprattutto
perché quasi tutti questi studi preclinici sono limitati ai tumori
sottocutanei. Il tumore sottocutaneo è un modello molto
semplificato e vascolarizzato, perché il tumore che cresce nel
sottocute richiama vasi sanguigni e gode sicuramente
dell’effetto EPR (questo non è detto nel caso in cui il tumore fosse trasferito nella sua corretta
localizzazione). Questi studi preclinici sono detti di proof of concept, ovvero spiegano come questi
sistemi possano funzionare, ma mancano delle dimostrazioni più fondate che questi sistemi possano
funzionare su un organismo più grande e complesso come quello dell’uomo.
L’utilizzo dei modelli sottocutanei ha falsato le potenzialità della nanomedicina e ha generato l’idea
che tutti i tumori potessero essere targettati mediante l’effetto EPR, questo ha portato al fallimento
di molti trial clinici che erano stati studiati con modelli troppo semplificati. Negli anni si è capito che
l’effetto EPR non è caratteristico di tutti i tumori e che dipende da molti aspetti incluso lo stadio.
9
Buffoni/Sinnona
06_BIONANOTECNOLOGIE (Mattu)
10/03/2022
Riassunto:
! Le nanoparticelle di ossido di ferro sono fatte con materiali ferromagnetici
! Le loro dimensioni nanometriche fanno si che presentino caratteristiche simili a materiali
paramagnetici, pertanto sono definiti superparamagnetici
! Possono essere manipolati dall’esterno attraverso l’applicazione di un campo magnetico
! Possono essere sfruttati per il trasporto di farmaci
! Danno contrasto in risonanza magnetica perché accelerano il fenomeno del rilassamento spinspin, rendono le immagini più scure
! Si possono riscaldare applicando un campo magnetico alternato dall’esterno per applicazioni nel
trattamento di ipertermia dei tumori.
INTRODUZIONE A NANOPARICELLE D’ORO
Particelle metalliche con un profilo di biocompatibilità migliore rispetto alle nanoparticelle di ossidi
di ferro ma sono comunque non biodegradabili, perciò permane il problema dell’accumulo.
Le nanoparticelle d’oro sono sospensioni colloidali di oro in acqua e possono avere diversa forma e
dimensione. La forma e la dimensione sono i due parametri principali che caratterizzano le proprietà
delle nanoparticelle d’oro. Sono altamente monodisperse, ovvero all’interno della stessa sintesi di
nanoparticelle si riesce ad avere alta riproducibilità in termini di dimensioni e di forma; ottenendo
nanoparticelle tutte della stessa dimensione e più o meno tutte con la stessa forma.
L’oro ha il vantaggio di essere prelevabile in molti modi diversi.
10
Serra/Casari
07 Bionanotecnologie (Mattu)
10/03/2022
Gold nanoparticles
Le nanoparticelle d’oro sono delle sospensioni colloidali di particelle molto piccole di oro in acqua
che possono avere diverse dimensioni e diversa forma e che hanno il vantaggio di essere
altamente monodisperse, cioè tutte le particelle di una sospensione hanno un’elevata uniformità
di dimensioni e di forma. Una volta deciso il range dimensionale e la forma con cui si vogliono
realizzare le particelle d’oro, si riesce a essere esattamente precisi e riproducibili nell’ottenerle
tutte più o meno nello stesso modo, con poca variabilità. Il vantaggio dell’oro è che è rilevabile con
diversi metodi.
Per queste particelle è sempre possibile distinguere i due
compartimenti: core e superficie; nel caso delle particelle d’oro
il core può essere ottenuto con diverse forme, le più comuni
risultano essere: sfere, cilindri (rod) e nanostelle. Variando le dimensioni del core variano alcune
proprietà importanti. La superficie può essere rivestita con polimeri, farmaci (biologici o no), può
contenere catene idrofiliche per migliorare la circolazione, come per esempio il PEG, o può
contenere una serie di agenti di imaging.
Coupling passivo sulla superficie
Sulla superficie si può avere una vasta gamma di
funzionalizzazioni che possono essere fatte direttamente
sulla superficie dell’oro, attaccando i ligandi/agenti di
imaging direttamente sulla superficie d’oro (Coupling
passivo). Questo si può fare perché l’oro, come tutti i
metalli, ha una superficie molto reattiva e quindi si può
sfruttare per ottenere una serie di reazioni; si possono inserire direttamente sulla superficie d’oro
le biomolecole di interesse, ma bisogna fare attenzione perché le reazioni dipendono dalle
condizioni al contorno, come per esempio: il pH, la temperatura, la generazione dei sali e così via.
Può succedere che le reazioni diventino instabili, quindi ciò che è stato messo sulla superficie si
stacca per via della variazione delle condizioni al contorno e quindi la superficie si espone e le
particelle tenderanno nuovamente ad aggregarsi tra loro: in questo modo si perde la dimensione e
l’aggregato di particelle può essere assimilato ad una particella ma con un diametro molto
maggiore. Come è stato detto prima, le proprietà delle particelle d’oro dipendono fortemente
dalla loro dimensione, quindi se questa cambia si perde il controllo sulle proprietà di interesse. È
vero quindi che si può legare direttamente sulla superficie, ma questa tipologia di legame è molto
più instabile.
Coupling covalente
Si può interporre tra le molecole che si vogliono mettere in
superficie e la superficie d’oro uno strato polimerico
(rappresentato in nero) sul quale si vanno a fare le reazioni
chimiche. Questo rende il passaggio un po’ più laborioso,
perché bisogna fare due step, in quanto prima si riveste lo
strato intermedio e poi si mettono le molecole in superficie, però permette di essere più
riproducibili, rende le reazioni chimiche più stabili e soprattutto, interponendo lo strato
intermedio polimerico, si ha più spazio per orientare le molecole.
Risposta ad una domanda fatta in aula: Il coupling passivo è inteso come legame delle
biomolecole. Se si vuole legare un anticorpo direttamente alla superficie si può provare a sfruttare
1
Serra/Casari
07 Bionanotecnologie (Mattu)
10/03/2022
l’interazione con la chimica dei tioli, tra l’oro e il gruppo SH che è un legame piuttosto forte. Il
problema è che se si vuole sfruttare la reazione in superficie bisogna affidarsi alle modifiche di
carica sulla superficie che sono da controllare controllando le condizioni di reazione. Così facendo,
se si perde il controllo di queste condizioni, questa reazione non avviene come si vuole, può quindi
succedere che a causa delle variazioni delle condizioni esterne, ciò che si era messo sulla superficie
si tolga e quindi le biomolecole si staccano dalla superficie. Invece di fare in questo modo, durante
la sintesi, si inserisce uno strato superficiale intermedio usando una chimica più stabile
direttamente sulla superficie dell’oro e a questo si vanno ad attaccare le biomolecole. È possibile
che questo strato intermedio si stacchi, ma è molto meno probabile del distacco delle biomolecole
dalla superficie.
Quindi, un vantaggio dell’interporre uno strato polimerico intermedio è quello di poter orientare
le biomolecole. Ad esempio, quando si è parlato di quantum dots con la sequenza RGD, quando si
ha la possibilità di attaccare la biomolecola (quindi una struttura tridimensionale) in maniera
mobile, invece che attaccarla direttamente sulla superficie, si ha la possibilità di favorire la corretta
orientazione tridimensionale di questa biomolecola. Se il ligando è libero di muoversi è più facile
che interagisca col suo recettore rispetto alla situazione in cui è attaccato alla superficie, quindi
meno libero di muoversi favorevolmente.
Se si hanno delle particelle d’oro funzionalizzate possono essere
utilizzate per diverse funzioni:
•
•
•
•
•
•
Rilascio di farmaci: in questo caso il farmaco deve essere
posizionato sulla superficie;
Imaging: le nanoparticelle d’oro, opportunatamente
stimolate, agiscono come agenti di contrasto in quello che
si chiama “imaging fotoacustico”;
Terapia termica dei tumori: scaldare le particelle d’oro; in
questo caso non si applica un campo magnetico, ma una
radiazione incidente, tipicamente nell’infrarosso, si parla
quindi di terapia fototermica;
Targeting tumorale: aggiungendo degli agenti di targeting sulla superficie;
Radioterapia;
Rilevazione in vitro: prima applicazione in cui sono state utilizzate le particelle d’oro e sono
tutt’ora utilizzate. Sono presenti in molti test, ad esempio nel test di gravidanza che
funziona sfruttando alcune proprietà delle nano particelle d’oro;
Le nanoparticelle d’oro, quindi le sospensioni colloidali, hanno un
aspetto completamente diverso rispetto a quello dell’oro in forma
di bulk. Si vede già a occhio la netta differenza da quando si passa
dalla macro alla nano scala. Le nanoparticelle d’oro si presentano
come soluzioni colorate, mentre nella forma di bulk si presenta
come tutti i metalli, cioè lucente e opaco. Il colore di queste
sospensioni colloidali d’oro dipende dalle dimensioni delle nanoparticelle, dalla loro forma e anche
dal mezzo in cui sono disperse (tipicamente acqua). A parità di mezzo di dispersione, la forma e le
dimensioni delle nanoparticelle influiscono su questa proprietà, cioè sul colore della sospensione.
Anche altre particelle metalliche, in forma di sospensioni colloidali, cioè di nanosospensioni, hanno
queste stesse proprietà (es. nanoparticelle di argento).
2
Serra/Casari
07 Bionanotecnologie (Mattu)
10/03/2022
L’oro in forma di bulk si presenta come un metallo: lucido, opaco. Questo significa che non
permette alla luce di passare attraverso, non è trasparente, e respinge la luce che lo colpisce, per
cui appare lucente. Il motivo di queste proprietà è legato alla struttura atomica del materiale. Gli
elettroni di valenza, nei materiali metallici, sono condivisi tra atomi. Gli elettroni di valenza
(esterni), invece di essere appartenenti a un solo nucleo, è come se fossero condivisi, quindi tutti i
nuclei condividono gli elettroni di valenza. Questo vuol dire che gli elettroni sono liberi di muoversi
nel reticolo. Tale elevata mobilità degli elettroni di valenza spiega l’alta conducibilità termica ed
elettrica dei metalli. Se si colpisce la superficie di un metallo con la luce, gli elettroni in superficie
liberi di muoversi vengono eccitati, cioè vengono promossi a stati energetici più alti. Questi
elettroni così mobili sono chiamati “plasma di elettroni”, cioè si può assimilare il movimento degli
elettroni all’interno dei reticoli dei materiali metallici come un liquido ad alta densità.
Quando gli elettroni vengono eccitati, si perturba il plasma di elettroni e si genera un fenomeno
chiamato plasmone di superficie. In sostanza, si colpisce la superficie con la luce, gli elettroni
assorbono tutte le componenti della luce incedente, si eccitano, passano a stati energetici
superiori e, decadendo dallo stato più alto a quello più basso, riemettono tutte le lunghezze
d’onda che componevano la luce incidente. Così facendo
si allontanano e si avvicinano alla superficie, e quindi si
genera un’onda di elettroni, chiamata plasmone di
superficie. La nube di elettroni si propaga viaggiando
parallelamente alla direzione della superficie. Dato l’alto
numero di elettroni, tutte le lunghezze d’onda presenti
nella radiazione incidente vengono assorbite (quando gli elettroni passano a stati energetici
superiori) e riflesse (quando gli elettroni ricadono nel loro stato iniziale riemettendo la stessa
radiazione che li aveva colpiti).
Per quanto riguarda l’oro in forma di bulk, quando esso viene colpito da una radiazione incidente,
tutta la luce che lo colpisce (= luce visibile, composta da diverse radiazioni di diverse lunghezze
d’onda) viene assorbita e riflessa. Per questo, l’oro in bulk è opaco e lucente.
Quando si riducono le dimensioni della particella fino alla nanoscala, succede che il plasmone di
superficie, cioè la nuvola elettronica eccitata, rimane confinata in uno spazio molto piccolo
dell’ordine dei nanometri, dunque non ha più tutta la superficie su cui muoversi. Inoltre, si hanno
meno elettroni di valenza, gli elettroni esterni sono pochi. Si ha, quindi, un confinamento
strutturale, dato dalla nano dimensione, e un numero ridotto di elettroni sempre dovuto dal fatto
che lo spazio disponibile è poco.
Quando si eccita la nanoparticella d’oro, gli elettroni vicini alla superficie
rispondo alla luce incidente e assorbono alcune radiazioni presenti. Dato che
non si hanno tanti elettroni come nella macroscala e lo spazio è piccolo, gli
elettroni eccitati tendono ad allontanarsi dalla superficie, però quando
raggiungono una certa distanza dal nucleo, questo li riattrae a sé. Prevale
quindi la forza attrattiva del nucleo. La nuvola di elettroni tenderà ad
allontanarsi all’inizio dalla particella, dopo di che la forza attrattiva del nucleo la richiama, e se si
continua ad eccitare la particella, questa nuvola di elettroni continua ad allontanarsi dalla
superficie per poi riavvicinarsi e così via; questo fenomeno si chiama risonanza plasmotica di
superficie. Il plasmone di superficie è confinato, localizzato vicino alla superficie della particella,
mentre nel caso del materiale in forma di bulk, il plasmone può viaggiare e propaga lungo tutta la
sua superficie.
3
Serra/Casari
07 Bionanotecnologie (Mattu)
10/03/2022
Tornando alla particella nanoscopica, si ha un plasmone confinato che oscilla attorno alla particella
con una certa frequenza, cioè con una certa lunghezza d’onda che dipende dalla forma e dalle
dimensioni delle nanoparticelle ed è la lunghezza d’onda della radiazione che la nanoparticella
d’oro assorbe.
Nel caso di bulk, sulla superficie le radiazioni vengono tutte riflesse, mentre nel caso delle
nanoparticelle, non tutte le radiazioni sono riflesse, ma alcune vengono assorbite e mandano il
plasmone di superficie in risonanza esattamente a quella lunghezza d’onda: ecco perché le
nanoparticelle d’oro appaiono con un colore. Alcune lunghezze d’onda della radiazione incidente
vengono assorbite e mandano in risonanza il plasmone, e dunque questa lunghezza d’onda NON
viene riflessa. Questo significa che si vedrà la sostanza che assorbe una certa lunghezza d’onda con
un certo colore, che corrisponde al colore complementare della lunghezza d’onda assorbita (la
lunghezza d’onda della radiazione assorbita dipende dalla grandezza della particella, dalla sua
forma e dal mezzo esterno in cui le nanoparticelle d’oro sono disperse).
Ad esempio, l’erba risulta essere verde poiché essa contiene la clorofilla
che assorbe alcune componenti della luce incidente, in particolare
assorbe nell’intorno dei 440-500nm e intorno ai 600-650nm, queste
radiazioni corrispondono al blu e al rosso; queste componenti della luce
non saranno riemesse, perciò l’erba si vede di un colore tra il verde e il
giallo, cioè i colori complementari a quelli assorbiti.
Se la nanoparticella d’oro assorbe intorno ai 520-580nm, che
corrispondono al verde e al giallo, si vedrà la sospensione di particelle di
un colore rossiccio, cioè i colori complementari al verde e al giallo.
Riassumendo, si colpisce la sospensione con la luce, che contiene tante
lunghezze d’onda; alcune vengono assorbite, altre vengono riflesse. Le
prime mandano in risonanza il plasmone di superficie e non verranno
riemesse, quindi di tutta la luce con cui si colpisce la particella se ne vede solo una parte. Il colore
della sospensione colloidale risulta essere quindi complementare a quello della lunghezza d’onda
assorbita.
Risposta a una domanda: sul reticolo non bisogna considerare un numero di elettroni di valenza,
ma bisogna considerare che tutti gli elettroni sono condivisi. Non si fa il calcolo della quantità
effettiva degli elettroni.
Attenzione a non parlare di colore della nanoparticella, perché il colore viene assunto dalla
sospensione colloidale, ovvero da tante nanoparticelle sospese nel mezzo (acqua). Queste
sospensioni di particelle d’oro, esposte alla luce appaiono colorate, e il colore dipende dalla forma
e dalla dimensione della nanoparticella.
Si possono ottenere le nanoparticelle d’oro di diverse forme, anche molto controllabili. Variando le
dimensioni a parità di forma, ma anche variando la forma, si possono ottenere sospensioni con
colori diversi, ma soprattutto con proprietà di risonanza plasmonica di superficie molto diverse.
1L’aspetto
colorato della sospensione delle particelle d’oro è dovuto al fenomeno della risonanza
plasmonica di superficie e grazie alla possibilità di poter modulare tale effetto della risonanza
plasmonica si possono modulare alcune proprietà delle nanoparticelle molto importanti. Non
importa tanto il colore, ma il fatto che si può sfruttare questo fenomeno per generare calore o
contrasto in imaging.
1
IMPORTANTE!
4
Serra/Casari
07 Bionanotecnologie (Mattu)
10/03/2022
Con questa immagine si
vede cosa succede
all’assorbimento di
nanoparticelle d’oro sferiche
al variare delle dimensioni.
Si hanno dunque delle
sospensioni di particelle di
diverse dimensioni, di diversi
range. Si consideri il range
con le piccole dimensioni: lo
spettro di assorbimento
(primo in alto a sinistra)
indica il range di lunghezze
d’onda in cui le nanoparticelle assorbono la luce/radiazione, ovvero indica la lunghezza d’onda a
cui avviene il fenomeno della risonanza plasmonica di superficie. Particelle piccole assorbono nel
range 500-550nm. Se si aumenta la dimensione delle nanoparticelle si ha uno shift del picco di
assorbimento verso lunghezze d’onda maggiori: più le particelle sono grandi e più il picco di
assorbimento si sposta verso il rosso, cioè l’infrarosso. Si può arrivare a lunghezze d’onda pari a
600nm quando le dimensioni della particella aumentano fino ai 100nm. Si nota quindi che
cambiando le dimensioni cambia lo spettro di assorbimento della particella. Questo discorso vale
per le particelle sferiche.
Vediamo cosa succede se si cambia la forma. Ad esempio, è molto comune il nanorod, che ha la
forma di un bastoncino e ha due dimensioni caratteristiche: un diametro (dimensione trasversale)
e una lunghezza (dimensione longitudinale). Un altro parametro importante è anche il rapporto tra
la lunghezza e il diametro. Variando questi tre parametri appena
elencati, si modificano le proprietà di assorbimento, e quindi la
risonanza plasmonica di superficie. Dato che il nanorod è
costituito da due componenti, se si va a colpire la soluzione dei
rod, si possono generare due plasmoni di superficie in
corrispondenza delle due lunghezze caratteristiche: uno lungo il
diametro e uno lungo la lunghezza. Nella sospensione di
nanorods, la luce li colpirà a caso, si avranno quindi due picchi di
assorbimento, uno che corrisponde al plasmone generato in
direzione trasversale, cioè lungo il diametro e uno generato lungo la direzione longitudinale.
Quindi avendo due picchi di assorbimento che si possono modulare variando le dimensioni, si
vedrà la sospensione di nanorods assumere una vasta gamma di colori perché si hanno più
parametri da modulare. Avere una vasta gamma di colori vuol dire che si può modulare il
fenomeno della risonanza plasmonica di superficie in un range più ampio, da 520-550nm fino alla
regione del vicino infrarosso, con picchi di assorbimento di circa 1300nm.
Le nanostelle/nanoricci d’oro sono simili a delle particelle sferiche, ma con delle asperità sulla
superficie. Si possono assimilare a delle sfere però poiché la lore superficie è modificata, non liscia,
non si comportano esattamente come le sfere di pari dimensioni. Se si confronta lo spetto di
assorbimento delle nanoparticelle sferiche con quello delle nanostelle, a parità di dimensioni, si
vede sempre uno spostamento del picco di assorbimento verso l’infrarosso. E quindi il fatto di aver
inserito delle asperità lungo la superficie permette di shiftare il fenomeno della risonanza
plasmonica di superficie verso l’infrarosso.
5
Serra/Casari
07 Bionanotecnologie (Mattu)
10/03/2022
Chiaramente, spostando il picco di assorbimento verso il rosso, la sospensione assume un colore
blu, perché è il colore complementare del rosso.
Recap
Risonanza plasmonica di superficie → alcuni elettroni in superficie entrano in risonanza, ovvero
cominciano a oscillare attorno alla superficie a una lunghezza d’onda pari alla lunghezza d’onda
assorbita. Questa non sarà più riemessa. A seconda delle lunghezze d’onda dove avviene la
risonanza plasmonica di superficie, la sospensione colloidale di particelle assume una certa
colorazione che corrisponde alle lunghezze d’onda complementari rispetto a quelle che sono
state assorbite. Per i rods, si hanno due plasmoni e due picchi di assorbimento, quindi
combinando tale spettro di assorbimento si vedono diversi colori perché la risonanza
plasmonica di superficie si sposta di più verso il vicino infrarosso, quindi si shifta di più verso
l’infrarosso e di conseguenza le sospensioni saranno più verso il blu/viola. Il plasmone di
superficie cambia anche nel caso di nanostar (che rispetto alle nanoparticelle sferiche
presentano delle asperità superficiali), quindi si hanno assorbimenti shiftato verso l’infrarosso e
la sospensione appare blu.
Si può sfruttare la variazione di colore della sospensione per numerose applicazioni:
Sensing in vitro
Si può monitorare la reazione tra due molecole A e B legandole a
delle particelle d’oro diverse, ma di uguale dimensione. Si possono
verificare due casi: (i) quando A e B sono legate alle rispettive
particelle e sono distanti e separate (ciascuna con diametro 𝑑1 ), si
avrà un certo spettro di assorbimento uguale per entrambe le
particelle, corrispondente a quello della più piccola particella
che si ha in sospensione (colore rosso perché lo spettro di
assorbimento rimane nel verde); (ii) quando A e B reagiscono e
si legano, portano le particelle d’oro molto vicine: il risultato è
una singola nanoparticella (aggregato) con dimensioni
aumentate (𝑑2 > 𝑑1) cambiando il loro spettro di
assorbimento e spostando il picco verso il rosso e di
conseguenza il colore della soluzione shifta verso il blu (red
shift).
𝑑2
𝑑1
NPs
aggregate
NPs
singole
L’ultimo grafico in basso a destra mostra il monitoraggio
nel tempo alla lunghezza d’onda di 630nm. Al tempo t=0,
quando le particelle son tutte separate, non si ha nessun
assorbimento; nel tempo l’intensità di assorbimento
aumenta perché A e B stanno reagendo tra loro. Si evince
che il tempo per completare la reazione tra A e B in tutto
il volume di reazione è di 25min (tempo per il
raggiungimento del plateau).
La variazione di colore, dovuta allo shift del picco di
assorbimento, è indicativa dello stato della reazione;
infatti, se non si ha alcun assorbimento nella zona del rosso vuol dire che A e B non stanno
6
Serra/Casari
07 Bionanotecnologie (Mattu)
10/03/2022
reagendo al contrario se si ha assorbimento in quella zona allora le due molecole hanno reagito
formando l’aggregato di nanoparticelle che assorbe nella lunghezza del rosso. Monitorando
l’assorbimento si può avere anche un’indicazione del tempo necessario per raggiungere il plateau
della reazione.
Detection in vitro
Test di Gravidanza: ricerca dell’ormone HCG che si trova disperso nell’urina in caso di gravidanza.
Sul test sono contenute nanoparticelle d’oro sulla cui superficie è legato un anticorpo primario
(rappresentato a forma di Y) specifico in maniera selettiva per l’ormone HCG, con cui si legherà se
presente.
Il campione d’urina bagna il test e inizia la sua corsa sulla carta
assorbente che costituisce l’interno del test. Nella prima fascia
più larga incontra l’anticorpo primario legato alla particella d’oro;
se nell’urina è presente l’ormone target, questo si legherà
all’anticorpo e di conseguenza, sarà legato anche alle particelle
d’oro.
Vi sono poi due linee: una che comunica il risultato del test (a
sinistra), ovvero se è positivo o negativo e una di controllo (a
destra) che serve a capire se il test è stato eseguito
correttamente.
La prima linea del test (test line in fig.) contiene anticorpi specifici
dell’ormone HCG, mentre la seconda linea (control line in fig.)
contiene un anticorpo secondario specifico per l’anticorpo
primario. Quando il test procede, l’anticorpo primario arriva alla linea di controllo (la seconda, a
destra) e viene riconosciuto dall’anticorpo secondario. Qui viene portata anche la particella d’oro
(legata all’anticorpo primario) e quindi compare la linea rossa, corrispondente proprio alle
particelle d’oro, che dice che il test è andato bene e che tutti gli analiti sono passati sul test.
Questo dovrebbe succedere anche se non è presente l’ormone HCG; se non succede, vuol dire che
il test non è valido.
Se il test è positivo, una parte degli anticorpi primari legati alle particelle d’oro si saranno legati
all’ormone HCG e, passando per la prima linea, si legheranno all’anticorpo primario presente su di
essa. Per cui, sulla prima linea viene portato l’anticorpo primario, sul quale è legata la particella
d’oro, e a cui è legato l’ormone HCG. Così facendo, le particelle d’oro si trovano sulla test line (in
quanto erano legate all’ormone) e compare, dunque, la linea rossa che indica che il test è positivo.
Una parte dell’anticorpo primario non reagisce, ma continua ad andare avanti sul test e si ferma
sulla seconda linea in cui si lega con gli anticorpi secondari, portando dunque le nanoparticelle
d’oro e permettendo la colorazione della seconda linea (dovuta proprio alla presenza delle
particelle d’oro) del controllo.
Se invece il test è negativo, l’HCG non è presente e sulla prima riga di anticorpi (specifici per
l’ormone) non si legherà niente, mentre nella seconda si legheranno sempre gli anticorpi primari a
loro volta legati alle particelle d’oro: sarà visibile solamente la seconda linea.
7
Serra/Casari
07 Bionanotecnologie (Mattu)
10/03/2022
Test Covid-19: ricerca degli anticorpi IgG e IgM del Covid-19
Si utilizza anche in questo caso una nanoparticella d’oro coniugata con un antigene specifico per la
patologia, che sarà riconosciuto sia dagli anticorpi IgG sia dagli anticorpi IgM se il paziente ha
oppure ha avuto il Covid-19.
Si utilizza un campione di sangue e, se sono presenti gli anticorpi della patologia, essi si legheranno
all’antigene specifico nella prima parte del test. In questo caso sono presenti tre linee:
- linea M contenente anticorpi secondari anti-human-IgM che riconoscono in modo specifico tutti
gli anticorpi IgM umani
- linea G contenente anticorpi secondari anti-human-IgG che riconoscono in modo specifico tutti
gli anticorpi IgG umani
- linea C di controllo contenente anticorpi secondari anti-rabbit che riconoscono solamente gli
anticorpi di un’altra specie (in questo caso conigli) in modo da non avere cross-interaction
(reattività tra specie).
Quindi, nel mix di reazione ci saranno: (i) la particella d’oro coniugata con l’antigene specifico per il
Covid-19 che serve per capire se l’individuo ha gli anticorpi per il Covid-19, (ii) un’altra
nanoparticella d’oro legata a un anticorpo di una specie differente (coniglio in questo caso
specifico) che non reagirà con niente (perché specifico per gli anticorpi del coniglio) che serve per
capire se il campione è stato trasportato fino alla fine del test e vedere dunque se il test è andato
bene. Se così fosse, l’anticorpo IgG di coniglio verrebbe riconosciuto dal secondario specifico per
gli anticorpi di coniglio e quindi le particelle d’oro vengono portate sulla linea di controllo, che
diventa rossa.
Se il soggetto presenta gli anticorpi IgM o IgG per il Covid-19, essi si legheranno all’antigene che a
sua volta è legato alla nanoparticella d’oro. Proseguendo col test si giunge alla prima riga del test
che riconosce tutti gli anticorpi IgM umani presenti nel plasma del paziente, tra cui anche quelli
relativi al Covid-19, che sono gli unici legati alla nanoparticella d’oro. Se la prima linea è visibile
vuol dire che l’individuo presenta gli anticorpi IgM relativi alla patologia. Lo stesso discordo vale
8
Serra/Casari
07 Bionanotecnologie (Mattu)
10/03/2022
per la seconda riga relativa agli IgG: se la seconda linea è visibile vuol dire che l’individuo presenta
gli IgG relativi alla patologia. La terza riga invece dovrà sempre essere visibile in quanto gli
anticorpi della specie differente non devono interagire nelle fasi precedenti e dovranno perciò
arrivare a fine corsa (se l’ultima linea non è visibile significa che gli analiti non sono giunti alla fine
del test che perciò non è da ritenersi valido).
Risposte a delle domande fatte in chat
Differenza tra i due test?
La differenza principale tra i due test mostrati sta nella rilevazione. Nel test di gravidanza, si usa un
anticorpo che riconosce un ormone, mentre nel test per il Covid-19 si vuole vedere se nel sangue
c’è un anticorpo, dunque si vede se l’anticorpo riconosce il suo specifico antigene.
Sostanzialmente, è diverso il metodo di riconoscimento: nel test di gravidanza, sulla nanoparticella
d’oro si mette un anticorpo specifico per l’ormone che si cerca, nel test per il Covid-19, sulla
nanoparticella d’oro viene messo l’antigene specifico per l’anticorpo che si cerca. Cambia la
modalità di identificazione, ma cambia anche la modalità di lettura. Nel test di gravidanza, sulla
prima linea che dice se il test è positivo avviene la reazione tra l’analita (ormone) e l’anticorpo.
L'ormone si lega nella prima fascia larga e poi nella test line contenente l'anticorpo secondario. Nel
test per il Covid-19, se c'è l'anticorpo, si lega all'antigene sulla particella e poi sulle linee M o G; il
riconoscimento sarà specifico (umano o no) sul tipo di anticorpo presente sulla particella d'oro.
Dopodiché, il principio sfruttato è lo stesso: si sfrutta la colorazione caratteristica delle
nanoparticelle d'oro, che servono solo per far comparire la linea sul test.
Questi due esempi sono concettualmente simili, il trucco nei test di rilevamento è capire cosa fare
interagire con le particelle d’oro e cosa posizionare sulle righe del test in modo da avere risultati
univoci tramite colorazione delle particelle d’oro.
Perché non si può utilizzare un anticorpo umano per il controllo?
Per il controllo si utilizza un anticorpo di una specie diversa con poca cross-reattività con gli
anticorpi umani, perché se venisse utilizzato un anticorpo umano (IgG o IgM), si fermerebbe alle
linee G o M a seconda dell'anticorpo che si è scelto, senza raggiungere la linea di controllo C.
L'anticorpo della specie diversa, invece, è sicuro che non reagisca né sulla linea G né sulla linea M,
e dunque giungerà sicuramente sulla linea C.
9
Riviello/Rafaiani
08 Bionanotecnologie (Mattu)
11/03/2022
Abbiamo visto le nanoparticelle d’oro nei sistemi di rilevazione in vitro; esse possono essere
sfruttate grazie alla capacità di generare colore per produrre delle linee visibili sui test (esempi:
test di gravidanza; test per la rilevazione degli anticorpi).
TERAPIA FOTOTERMICA
Un altro effetto che possiamo sfruttare dipende dal fenomeno della risonanza plasmonica di
superficie: capacità di tali particelle di scaldarsi quando sono irraggiate da una radiazione
incidente ad una specifica lunghezza d’onda (che manda gli elettroni in risonanza, dunque quella
per la quale si ha il fenomeno di risonanza plasmonica di superficie).
Irraggiando con la lunghezza d’onda che genera la
risonanza plasmonica di superficie, gli elettroni
inizieranno ad oscillare attorno alla particella
(ovvero vanno in risonanza). L’eccitazione e il
movimento degli elettroni, alla frequenza di
risonanza, fanno scaldare la particella (ricordando
che sono altamente conduttori). Si può, dunque,
sfruttare la capacità di eccitare le particelle d’oro
per generare calore, per ottenere la terapia
termica dei tumori (come abbiamo visto per le particelle di ossidi di ferro). Dunque, si iniettano le
nanoparticelle facendole accumulare nel tumore sfruttando l’effetto EPR; applicando un
irraggiamento dall’esterno con una frequenza pari a quella che induce la risonanza plasmonica di
superficie, le particelle assorbono la radiazione, portando gli elettroni in risonanza e si genera un
innalzamento di temperatura localizzato che porta alla morte delle cellule (come abbiamo visto
per le particelle magnetiche).
Ciò che cambia rispetto alle particelle magnetiche è la modalità con cui si fa innalzare la
temperatura: nel caso delle particelle magnetiche si applica un campo magnetico alternato
dall’esterno; per le particelle d’oro si irraggia con una radiazione alla lunghezza d’onda che manda
gli elettroni in risonanza.
Con le nanoparticelle d’oro, modulandone forma e dimensioni correttamente, si può decidere a
quale lunghezza d’onda far avvenire il fenomeno di risonanza plasmonica di superficie.
Ricordiamo che passando dalle nanoparticelle sferiche ai rods, avviene il red shift, ovvero il picco
dell’assorbimento si sposta verso il rosso e l’infrarosso. In tal modo si ha il vantaggio di poter
eccitare le particelle d’oro all’interno degli organismi biologici poiché le radiazioni nell’infrarosso
non vengono schermate dai tessuti. Dunque, dal punto di vista dell’applicazione della terapia
fototermica, i rods e tutte le particelle che hanno la risonanza plasmonica nell’infrarosso, hanno
delle prestazioni migliori.
Riviello/Rafaiani
08 Bionanotecnologie (Mattu)
11/03/2022
Ad esempio, in questo grafico si confrontano delle sfere con i
rods notando una differenza netta negli spettri di assorbimento:
la sfera nell’infrarosso ha un picco di assorbimento bassissimo
(in blu), a differenza dei rods che lo hanno molto alto (in rosso).
Ciò permette di avere prestazioni elevate in terapia fototermica.
Si nota che applicando una radiazione di circa 820 nm
(infrarosso), i rods si scaldano arrivando fino a 50°C, mentre le
sfere non subiscono alcun aumento di temperatura: tutte le
configurazioni che permettono di shiftare l’assorbimento
nell’infrarosso (come rods o stars) hanno le prestazioni migliori in
terapia fototermica.
Le particelle d’oro possono essere utilizzate anche in altre applicazioni, come ad esempio per il
trattamento dell’acne, patologia legata alla proliferazione di batteri all’interno dei pori della pelle.
Con questa terapia le nanoparticelle
vengono fatte penetrare nei pori.
Dall’esterno si applica un laser,
inducendo un aumento controllato
di temperatura a livello locale che
uccide i batteri e normalizza i pori,
permettendo di eliminare
l’eccessiva proliferazione batterica
alla base del problema dell’acne.
Scegliendo le dimensioni delle
particelle si può controllare la
lunghezza d’onda a cui sono irraggiate e quindi il calore che esse sono in grado di generare
cosicché si rimanga in condizioni mild (lievi), non si vuole un elevato aumento di temperatura.
Sfruttando le particelle d’oro si può anche fare un’ipertermia dei tumori mild, in cui si decide si
scaldare poco cosicché i vasi sanguigni diventino più permeabili, potendo intervenire dal punto di
vista sistemico con un farmaco che passerà molto di più attraverso i pori aperti aumentando
leggermente la temperatura locale.
In conclusione, con le particelle d’oro, molto più che con le particelle magnetiche, si può
controllare la temperatura che viene generata a livello locale, controllando la forma e la lunghezza
d’onda a cui avviene la risonanza plasmonica di superficie.
IMAGING FOTOACUSTICO
Ultima applicazione delle nanoparticelle d’oro è con i sistemi di imaging. Anche la capacità di fare
imaging dipende dalla capacità delle particelle di assorbire la radiazione incidente, cioè dalla
risonanza plasmonica di superficie.
Colpendo le nanoparticelle d’oro con una radiazione incidente, si mandano in risonanza degli
elettroni: ciò genera anche un’onda acustica, rilevabile con un rilevatore ad ultrasuoni. Tramite il
segnale fotoacustico si può fare imaging del punto in cui le particelle si sono localizzate.
Riviello/Rafaiani
08 Bionanotecnologie (Mattu)
11/03/2022
Questo effetto fotoacustico non è caratteristico solo delle nanoparticelle d’oro ma anche di altre
componenti di tessuti biologici.
Uno tra questi è l’emoglobina: si vedono immagini
fotoacustiche ottenute a livello dell’orecchio di un topo in cui
è stato fatto un imaging di tipo fotoacustico. Questo tipo di
imaging si può fare solo in strutture molto sottili, come in
questo caso l’orecchio di topo, poiché tale tecnica ha limiti: la
scarsa profondità di penetrazione della radiazione incidente e
la scarsa capacità dell’onda acustica di lasciare i tessuti.
Quindi se l’emoglobina si eccita
nel visibile, si possono sfruttare
le particelle d’oro eccitabili
anche nell’infrarosso, così da
ottenere una radiazione molto
più penetrante, ottenendo
imaging fotoacustico da tessuti
più profondi.
In questo modo si riesce ad avere la generazione dell’onda acustica più in profondità. Rimane però
il problema della rilevazione dell’onda all’ esterno. L’imaging fotoacustico è infatti, al momento,
limitato a tumori o strutture in profondità in piccoli animali oppure strutture superficiali.
Il vantaggio di usare questa tecnica è che si ha un migliore contrasto: si riescono a vedere meglio
tessuti diversi.
Il fatto di poter avere il fenomeno di risonanza plasmonica di superficie nell’infrarosso permette di
usare le particelle d’oro per fare imaging fotoacustico.
Vediamo un esempio in cui si utilizzano dei nanorods (perché hanno la
risonanza plasmonica dell’infrarosso) che vengono fatti accumulare
per effetto parzialmente passivo o attivo in un tumore ricavato nel
fianco sottocutaneo.
I rods si accumulano; dall’esterno viene applicata radiazione
nell’infrarosso; le nanoparticelle eccitate si scaldano e si ottiene
l’effetto terapeutico ovvero l’ablazione del tumore (infatti si vede che
il volume non aumenta).
Allo stesso tempo si ha la generazione
dell’onda acustica e con un rilevatore ad
ultrasuoni si vede la morfologia dei vasi
sanguigni: sfruttando le particelle d’oro
si fa imaging fotoacustico della
vascolarizzazione a livello della massa
tumorale.
Riviello/Rafaiani
08 Bionanotecnologie (Mattu)
11/03/2022
Scegliendo di eccitare in infrarosso non ci sono interferenze da parte dei tessuti e dei cromofori
endogeni presenti nei tessuti (quali ad esempio l’emoglobina): è un vantaggio poiché si diventa
insensibili agli artefatti introdotti dalla presenza di altri tessuti (l’infrarosso non viene assorbito dal
pelo dell’animale, non risente dell’effetto del sangue).
Riassumendo, i vantaggi delle particelle d’oro sono che:
•
•
•
•
•
Sono inerti e biocompatibili;
Sono sospensioni colloidali (nanodimensionate) d’oro;
È possibile modularne forma e dimensioni, dunque è possibile modulare l’effetto della
risonanza plasmonica di superficie e di conseguenza la lunghezza d’onda di assorbimento della
particella. Pertanto, si può modulare il colore della sospensione che sarà complementare
rispetto alla lunghezza d’onda assorbita. Il colore si può sfruttare nei saggi in vitro.
Generano calore, quindi si può fare terapia fototermica;
Generano onda acustica rilevata da rilevatori ad ultrasuoni.
Gli svantaggi sono che:
•
•
Ad alte dosi possono far cambiare il colore della pelle facendola tendere al blu;
Non sono biodegradabili nell’organismo: a lungo termine si possono avere problemi di
accumulo e smaltimento di queste sostanze.
NANOCODICI A BARRE
Utilizzati per rilevare specifiche sostanze in un mix di sostanze, facendo riferimento ad un codice
che le identifica in maniera univoca. Virtualmente si realizzano tanti codici diversi quante sono le
sostanze da identificare. L’analogia si trova con i codici a barre dei prodotti da supermercato:
volendo avere delle informazioni sul prodotto usando un lettore di codici a barre si capisce di
quale prodotto si tratta. Anche qui, anziché cercare in maniera più laboriosa la sostanza specifica,
si usano codici più facili da leggere, per identificarla e vedere se c’è.
Essi possono essere:
•
•
A base metallica: si sfruttano proprietà
caratteristiche dei metalli per leggere il codice;
A base di DNA: si utilizza la capacità delle
molecole di DNA di assemblarsi in maniera
precisa e ordinata in strutture come quelle
rappresentate in figura, sfruttando il legame
specifico dell’appaiamento tra basi
complementari. Grazie a questa elevata
selettività si possono costruire dei codici molto
selettivi.
Riviello/Rafaiani
08 Bionanotecnologie (Mattu)
11/03/2022
Alcuni esempi:
NANOCODICI METALLICI
Hanno forma cilindrica e sono costituiti dall’alternanza di metalli diversi, con caratteristiche e
modi di riflettere la luce differenti: ad esempio oro e argento.
Guardando la luce riflessa dal codice, i segmenti di argento hanno modalità diversa di rifletterla
rispetto ai segmenti d’oro. Decidendo in che modo alternare argento e oro, si crea un codice
diverso.
Guardando il codice al microscopio si misura
l’intensità della luce riflessa e si risale alla
composizione del codice: nel grafico si nota un punto
di massimo in cui c’è l’argento, un minimo più lungo
che identifica due segmenti di oro successivi; segue
nuovamente un massimo (argento) e poi un minimo
(oro). Andando a fare la rilevazione in microscopia e
guardando la luce riflessa, si può risalire alla
composizione del codice, il quale è esprimibile con una
sequenza di 1 e 0.
Creato il codice bisogna metterlo sulla sostanza che deve identificare.
Per farlo bisogna funzionalizzare il codice a barre metallico con, ad esempio, degli anticorpi
specifici per l’analita (sostanza). Si utilizzerà un anticorpo selettivo per una sostanza, da mettere
sul codice a barre.
In questo esempio si hanno due codici che identificano gli analiti A e B. Si
mettono sul codice degli anticorpi specifici rispettivamente per l’analita A e B. Se
gli analiti sono in soluzione, verranno riconosciuti e si legheranno all’anticorpo
presente sul nanocodice a barre.
Per leggere il codice, invece, serve una sostanza che permetta di fare la
rilevazione, per esempio, in fluorescenza. Per farlo si userà un altro anticorpo,
uguale al precedente, non legato al codice a barre ma ad un fluoroforo. Questo
anticorpo, posto nella soluzione dei codici a barre, si legherà all’analita a sua
volta legato al codice dando la possibilità di leggere il codice in microscopia.
In riflessione si leggono le sequenze di 1 e 0,
riconoscendo aree più scure e più chiare.
Nell’immagine si vedono diversi codici, ovvero
diverse alternanze di oro e argento. In
particolare, guardiamo quello identificato dal
codice 011110.
La stessa lettura viene fatta in fluorescenza: si vede che la fluorescenza è presente solo in
corrispondenza di quel codice. Ciò significa che su tale codice è presente l’analita di interesse,
identificato con l’anticorpo fluorescente. Adesso è noto che quel codice corrisponde ad una certa
sostanza, ad esempio all’analita A, deducendo che nella soluzione c’è proprio l’analita A.
Riviello/Rafaiani
08 Bionanotecnologie (Mattu)
11/03/2022
Dunque, il codice viene sempre rilevato in riflessione (perché è una proprietà dei metalli); invece si
usa la fluorescenza per rilevare la presenza dell’analita sul codice.
Ripetendo schematicamente: l’analita è in soluzione; nella stessa soluzione si mette il codice a
barre che deve avere un anticorpo specifico per l’analita.
STEP 1) L’analita sarà riconosciuto dall’anticorpo.
STEP 2) si aggiunge l’anticorpo fluorescente che si legherà ai codici utili, poi letti in microscopia. In
microscopia si vedranno: in riflessione i codici, in fluorescenza si vedranno solo i codici a cui
l’anticorpo fluorescente si è legato (quindi nel caso in cui l’analita è in soluzione).
Volendo si può leggere anche l’intensità di fluorescenza per capire in maniera semiquantitativa
quali sono gli analiti più presenti in soluzione.
Ad esempio, si vede che ci
sono 3 codici che dovrebbero
identificare 3 analiti diversi. In
soluzione però ce ne sono solo
2. Leggendo in fluorescenza
l’intensità su ogni codice, l’analita 3 che non c’è da quasi 0 fluorescenza. Inoltre, si nota che la
fluorescenza dell’analita 2 è più intensa di quella dell’analita 1: si deduce che nel mix di sostanze
c’è più 2 rispetto a 1.
NANCODICI A BASE DI DNA
Sono delle strutture molto organizzate e ordinate con forme ad albero (dendrimeri).
Sfruttando il DNA come elemento costruttivo del codice ma il vero e proprio codice è in
fluorescenza, legato alla presenza di fluorofori attaccati alle singole eliche di DNA.
Si vedono le tre sequenze: la prima legata ad un fluoroforo verde; la seconda ad un fluoroforo
rosso, la terza, che è un po’ più lunga, ad un’estremità non forma la doppia elica. Questa è
disponibile all’ibridazione con una sequenza complementare: pertanto viene chiamata estremità
adesiva (sticky ends) ovvero estremità a singola elica in cui può ancora avvenire l’ibridazione con
una sequenza complementare. Sfruttando queste estremità sporgenti, si fanno formare le doppie
eliche per ottenere una forma finale ottenuta dall’assemblaggio di più sequenze. Vediamo infatti
nella forma finale una totalità di 4 fluorofori verdi (Green) (4G) e 1 fluoroforo rosso (Red) (1R).
L’alternanza di fluorofori ci dà il codice (4G1R). Rimane inoltre un’estremità (probe o sonda) a cui
si può attaccare la sostanza che si vuole identificare con il codice. Qui avverrà la reazione che
porterà il codice ad attaccarsi alla struttura che deve identificare.
Riviello/Rafaiani
08 Bionanotecnologie (Mattu)
11/03/2022
Riassumendo: i codici a DNA sono strutture ordinate di DNA a doppia elica che presentano
un’alternanza di fluorofori il cui modo di distribuzione sulle doppie eliche mi dà il codice. Inoltre, ci
sarà un punto in cui è possibile fare il riconoscimento dell’analita in modo da associarlo al codice.
In questo esempio, si creano 5 codici a barre diversi, specifici
per determinati analiti riconosciuti dalle varie sonde, variando
l’alternanza dei fluorofori: 1) 4G1R; 2) 2G1R; 3) 1G1R; 4)2R1G;
5)4R1G.
Facendo una lettura in fluorescenza si vedono le differenze di
colore, distinguendo i codici l’uno dall’altro:
Volendo fare un’identificazione, è necessaria una certa intensità della fluorescenza. Non basta che
una singola sonda reagisca con una molecola del suo target (analita). È necessario amplificare il
segnale.
Una tecnica è quella di usare una
microparticella polimerica su cui è
immobilizzata una singola elica di DNA (sonda
di cattura). Per legare la sonda di cattura alla
particella si usa il legame streptavidinabiotina, con streptavidina sulla particella e
biotina sulla sonda di cattura.
La sonda di cattura è una singola elica di DNA complementare per l’analita che si cerca. Se il DNA
target è in soluzione si legherà al probe di cattura. Così tante molecole di DNA target sono state
avvicinate nello spazio. Bisogna riconoscerle: se il DNA target è sulla particella, si danno i codici
legati al probe (singola elica di DNA complementare al target in un punto diverso rispetto a quello
in cui è complementare la sonda di cattura). Quindi quando si dà il probe legato al codice, esso si
legherà alla struttura intorno alla particella, localizzandoli tutti insieme nello spazio. In questo
modo invece che vedere il segnale di un singolo codice, nello stesso punto dello spazio rilevo
contemporaneamente i segnali di più codici, che hanno identificato la stessa cosa.
Questi codici possono essere amplificati e visti in una risoluzione superiore, quindi sono visibili più
chiaramente.
Ad esempio, in questa immagine si identificano: il
batterio Antrace, la Francisella, l’Ebola e la SARS, ovvero
4 DNA di patogeni. Questo può servire per vedere se
sono presenti in un campione.
Riviello/Rafaiani
08 Bionanotecnologie (Mattu)
11/03/2022
Il campione è messo a contatto con queste sfere; si inseriscono i vari codici attaccati al probe, si
lasciano reagire e si vede se il batterio è eventualmente presente nel campione.
Il codice è dunque un insieme delle strutture a Y, che si porta dietro un insieme di fluorofori. La
sonda è attaccata a questo codice e identifica l’analita di interesse.
Inoltre, il DNA deve preventivamente essere denaturato, cioè le eliche devono essere aperte
cosicché possano formare doppia elica con le varie singole eliche usate come probe di cattura e
probe di riconoscimento.
Riassumendo:
•
•
•
•
I nanocodici a barre sono codici che identificano in modo univoco una sostanza in un mix di
sostanze.
La lettura si basa su un riconoscimento specifico o sfruttando l’ibridazione tra sequenze
complementari di DNA;
Il codice è in fluorescenza o una combinazione fra fluorescenza e lettura ottica;
Questi nanocodici a base di DNA, data la loro biocompatibilità, possono essere utilizzati per
identificare se delle reazioni o delle sostanze vengono prodotte in vivo anche sulle cellule, non
necessariamente in organismo vivente; quindi, sono usati per applicazioni in vitro, per
monitorare reazioni a livello cellulare ma potenzialmente possono anche essere applicati in
vivo su animali.
Guidubaldi / Gandolfo
09 Bionanotecnologie (Mattu)
16/03/2022
NANOPARTICELLE POLIMERICHE
Si è visto fino ad ora che le nanoparticelle inorganiche hanno delle proprietà particolari che derivano
dal fatto che il materiale è stato formulato alla nanoscala, cioè ci sono proprietà fisiche dei materiali
visti in precedenza che cambiano radicalmente solo perché si è passati dalla macro alla nanoscala.
Si è visto, ad esempio, che i quantum dots quando sono formulati alla nanoscala hanno delle
particolari capacità di emettere in fluorescenza, oppure si è visto che gli ossidi di ferro formulati alla
nanoscala hanno proprietà super paramagnetiche.
Questa cosa non avviene per i polimeri, per questo motivo le nanoparticelle polimeriche sono usate
per trasportare farmaci, ma le loro caratteristiche fisiche e/o chimiche non variano anche se
vengono formulate in nanoscala. Il polimero, ad esempio l’acido polilattico utilizzato per costruire
uno scaffold grande è lo stesso acido polilattico che si utilizza per fare le nanoparticelle, e le sue
proprietà non cambiano solo perché il costrutto che è stato realizzato è più piccolo, magari l’unica
cosa che può cambiare sono le cinetiche di degradazione. Ciò che cambia quando si usano le
nanoparticelle polimeriche per il trasporto dei farmaci è proprio il metodo con cui esse trasportano
il farmaco stesso.
Le nanoparticelle polimeriche sono quindi dei trasportatori di farmaco nano dimensionati in cui la
nano dimensione viene sfruttata perché altera le cinetiche di biodistribuzione del farmaco, cioè
altera in modo positivo le modalità con cui il farmaco viene trasportato rispetto al farmaco libero.
Esempio: il farmaco libero si distribuisce in
maniera uniforme su tutto l’organismo.
Individuando il target, si vede che il farmaco
libero spesso si distribuisce in modo non
specifico in tutto l’organismo con poca
selettività verso il bersaglio; quindi, ciò si
traduce in scarso effetto terapeutico ed elevati
effetti collaterali perché il farmaco va un po’
dappertutto e colpisce siti e organi che non
sono il suo bersaglio. Usando invece le
nanoparticelle per il trasporto del farmaco,
quest’ultimo diventa più selettivo, cioè si ha
una maggior efficienza nel distinguere il target
e la distribuzione nei siti non di interesse è in qualche modo controllata. Agisce di più sul target e in
maniera minore a livello sistemico, dove si può vedere che l’accumulo, non voluto, si ha
principalmente nei linfonodi e nel fegato. Si ha quindi una maggior efficacia terapeutica e una
diminuzione degli effetti collaterali.
Quella indicata con la freccia verde nella figura superiore è la “nanoparticella di prima generazione”:
essa presenta il PEG in superficie; quindi, è una particella designata per circolare nell’organismo
senza venire riconosciuta (il PEG serve per questo) però non ha alcuna capacità di targeting; quindi,
si accumula in modo passivo tendendo ad accumularsi in siti non bersaglio (tra cui linfonodi e
fegato). Hanno comunque una maggior selettività rispetto al farmaco da solo, quindi maggior effetto
terapeutico e minori effetti collaterali. Se poi si passa a particelle più complesse, cioè quelle di
seconda e terza generazione, ovvero quelle che fanno targeting, si riesce ad essere ancora più
1
Guidubaldi / Gandolfo
09 Bionanotecnologie (Mattu)
16/03/2022
selettivi nell’accumulo sul bersaglio e ridurre ancora di più gli accumuli nei siti non specifici. Quindi
le particelle polimeriche opportunamente progettate permettono di migliorare l’efficacia
terapeutica del farmaco e minimizzare gli effetti collaterali.
Vantaggi delle particelle polimeriche:
anche le particelle inorganiche possono
trasportare
farmaci,
però
tendenzialmente in esse il farmaco deve
essere legato in superficie, mentre nelle
particelle polimeriche il farmaco può
essere messo all’interno della particella
stessa, ciò permette di accumulare
maggior quantità di farmaco e inoltre,
essendo un rilascio di tipo diffusivo, è un
rilascio che può essere modulato nel
tempo e quindi avvenire più lentamente.
Cioè, rispetto alle particelle inorganiche,
con quelle polimeriche si può controllare
meglio il rilascio del farmaco nel tempo e nello spazio. Un altro vantaggio è che se opportunamente
stabilizzate sono stabili, cioè rimangono sospese senza aggregarsi e senza precipitare, in mezzi
acquosi e quindi possono essere iniettate molto più facilmente rispetto alle particelle inorganiche.
Il problema delle particelle polimeriche è quello di ottenerle tutte delle stesse dimensioni, cioè
dovrebbero esse monodisperse in dimensione (tutte della stessa dimensione), però con queste
particelle è difficile avere un controllo corretto delle dimensioni, si riesce molto meglio con le
particelle inorganiche. Però, altro vantaggio delle particelle polimeriche è che sono biocompatibili e
biodegradabili; dunque, non danno fenomeno di accumulo a lungo termine. Inoltre, essendo
costituite da polimeri, sono molto più facili da modificare in superficie rispetto alle particelle
inorganiche. Ci sono anche tanti gruppi funzionali disponibili sulla superficie per il legame con i
ligandi.
POLYMER NANOPARTICLES: PREPRATION METHODS
Quando si parla di particelle polimeriche si
fanno diverse distinzioni.
Si possono classificare in base al materiale che
li costituisce: si può ad esempio partire da
polimeri preformati. Nel caso si vogliano fare
particelle di acido polilattico, PLA, si parte da
un PLA già pronto; quindi, si ha già il polimero
e semplicemente lo si forma in forma di
nanoparticella di PLA che incapsula il farmaco.
I polimeri preformati possono essere di sintesi
2
Guidubaldi / Gandolfo
09 Bionanotecnologie (Mattu)
16/03/2022
(come, ad esempio, il PLA, l’acido polilattico coglicolico, PLGA, o il PCL), oppure di origine naturale
(es. collagene o gelatina).
A seconda che i polimeri siano sintetici o naturali cambiano i metodi con cui si forma la particella.
Tipicamente per i polimeri sintetici i metodi sono emulsione o precipitazione, mentre per quelli
naturali i metodi in genere coinvolgono il cross-linking.
Si possono poi avere particelle lipidiche (es.
liposomi) che sono particelle cave, quindi
delle capsule, oppure particelle solide
lipidiche che sono invece particelle massive.
Infine, si può anche partire dai monomeri
facendoli polimerizzare in situ, cioè invece di
partire dal polimero già fatto lo si ottiene in
situ
attraverso
una
reazione
di
polimerizzazione tra i vari monomeri, che
restituisce il polimero già in forma di
nanoparticelle.
SOLID NANOPARTICLES FROM PRE-FORMED POLYMERS
I metodi che si possono usare per ottenere
nanoparticelle
polimeriche
sono
principalmente:
•
•
•
emulsione,
nanoprecipitazione,
salting out.
Con le emulsioni si possono fare anche le
particelle solide lipidiche.
3
Guidubaldi / Gandolfo
09 Bionanotecnologie (Mattu)
16/03/2022
EMULSION-BASED METHODS:
È il metodo più utilizzato per preparare le nanoparticelle nonché il primo ad essere stato utilizzato
e quindi quello più ottimizzato.
Una emulsione si forma tra due liquidi,
detti “fasi”, immiscibili, come ad esempio
l’olio e l’acqua, che non si mescolano fra
loro ma l’olio nell’acqua rimane in
superficie; quindi, c’è una netta
separazione delle due fasi. Se si applica
energia meccanica, per esempio agitando
la soluzione, succede che si formano delle
gocce di olio dentro l’acqua, sospese in
acqua (non sciolte). Dunque, ciò che
succede è che quando agiamo
meccanicamente una fase si sospende
dentro l’altra, quindi si ottiene una
emulsione di una fase dentro l’altra.
Quindi una emulsione è una sospensione di una fase dentro un’altra fase immiscibile.
L’emulsionante è una sostanza che aiuta e stabilizza l’emulsione che si formerà. Quando andiamo
ad agitare l’olio nell’acqua si formano delle gocce di olio in acqua, dopo un po' che lasciamo riposare
le sostanze, le gocce di olio tendono ad unirsi fino a tornare alla configurazione iniziale in cui l’acqua
e l’olio sono separati, cioè l’emulsione perde di stabilità e torna alla sua condizione iniziale. Se invece
si aggiunge l’emulsionante esso si pone all’interfaccia tra le due fasi ed impedisce o rallenta la
coalescenza tra le gocce della fase dispersa e quindi impedisce o rallenta il rientro alla condizione
iniziale. L’emulsionante tipicamente è un surfattante, cioè una molecola anfifilica che è costituita da
due porzioni, una affine ad una fase (acqua) e l’altra affine all’altra fase (olio). Quindi la molecola di
surfattante si dispone all’interfaccia tra le due fasi proprio perché ha porzioni affini alle due diverse
fasi.
Quando si ha più acqua che olio, le gocce d’olio si disperdono in acqua, viceversa si può avere anche
l’emulsione di acqua in olio, in cui si hanno le gocce d’acqua che si disperdono nell’olio, perché
quest’ultimo è maggiore dell’acqua. L’unico caso in cui si usa quest’ultimo tipo di emulsione è per
preparare le “doppie emulsioni”. Si parla infatti di “singola emulsione” in cui si effettua una sola
volta l’agitazione meccanica, e quindi si può creare l’emulsione olio in acqua oppure acqua in olio;
4
Guidubaldi / Gandolfo
09 Bionanotecnologie (Mattu)
16/03/2022
O/W SINGLE EMULSION METHOD
Consideriamo l’emulsione olio in acqua.
È necessario avere un solvente non
miscibile con l’acqua (come ad esempio il
diclorometano DCM, tetraidrofurano THF e
acetato di etile, che ha ridotta tossicità).
Dentro al solvente si deve poter sciogliere il
polimero e il farmaco; quindi, polimero e
farmaco devono essere solubili nello stesso
solvente. Inoltre, polimero e farmaco
devono essere insolubili nel non-solvente,
ovvero in acqua.
I polimeri in genere sono poliesteri biodegradabili e i farmaci in genere sono molecole idrofobiche
(è infatti una tecnica scarsamente efficiente con molecole idrofiliche).
Come si prepara l’emulsione?
Si sciolgono il polimero e il farmaco nel solvente comune, vengono poi aggiunti in acqua; dopo di
che si agita così da far formare
l’emulsione, cioè gocce di solvente si
disperdono in acqua. Nelle gocce di
solvente rimane il farmaco in quanto esso
non è solubile in acqua, lo stesso vale per
il polimero, che non è solubile in acqua e
tende quindi a rimanere nel solvente.
Perciò si formeranno in acqua delle gocce
di solvente dentro le quali si trova disperso
il polimero e il farmaco. In acqua si deve
anche aggiungere il surfattante, le cui
molecole si vanno a disporre sulla
superficie della particella che si sta formando andando a stabilizzare le gocce di solvente.
In questa tecnica è importante che l’emulsionante aumenti un po' la viscosità della soluzione così
da impedire che le particelle si aggreghino. Quindi più surfattante viene inserito, più la soluzione
diventa viscosa e quindi le particelle rimangono di piccole dimensioni, però diventa anche più
difficile eliminare il surfattante residuo.
Inoltre, bisogna tenere presente che agitando la soluzione si applica energia meccanica e ciò può
danneggiare il farmaco rompendone le particelle con conseguente generazione di calore e le
temperature alte possono danneggiare a loro volta il farmaco.
5
Guidubaldi / Gandolfo
09 Bionanotecnologie (Mattu)
16/03/2022
Una volta creata l’emulsione si deve
riuscire ad eliminare il solvente facendolo
evaporare e questo si fa controllando
temperatura e pressione, in particolare
abbassando la pressione e/o aumentando
la temperatura del sistema si forza
l’evaporazione del solvente. Alla fine, il
polimero, non essendo solubile in acqua,
man mano che il solvente che lo tendeva
a far rimanere disciolto evapora, tenderà
a solidificare. Il farmaco, quindi, rimarrà
intrappolato dentro la matrice polimerica che sta solidificando e la parte del surfattante, che è affine
con il polimero, tenderà a rimanere intrappolata dentro la matrice, mentre le code, quelle affine
con l’acqua, rimangono all’esterno stabilizzando le particelle; quindi, alla fine si ha una sospensione
delle particelle solide in acqua stabilizzate dal surfattante.
Infine, si devono raccogliere le particelle dalla sospensione e in genere si fa per centrifugazione
cercando così anche di rimuovere, tramite lavaggi con acqua o soluzione fisiologica, il surfattante
residuo. Un surfattante comune è il PVA (poli vinil alcol), il quale è però difficile da rimuovere perché
è poco solubile in acqua e quindi si rischia di avere molto surfattante residuo come risultato di
questa tecnica.
Vantaggi di questa tecnica:
- essendo la prima tecnica ad essere nata è
molto utilizzata perché è stata ottimizzata
negli anni;
- è facile da scalare, cioè se si prepara in
laboratorio in piccola scala si riesce
abbastanza bene ad aumentare i volumi
mantenendo gli stessi risultati, cioè si riesce
a passare facilmente dalla scala di
laboratorio alla scala industriale, è cioè facile
aumentare le rese, la produzione di queste
particelle scalando volumi e concentrazioni
rispetto agli altri metodi;
- le dimensioni si possono controllare modulando tipo e concentrazione di emulsionante e intensità
della forza di agitazione. A seconda dell’emulsionante che viene scelto, a seconda della
concentrazione e di quanto viene agitata la soluzione, si riesce a fare le particelle entro un certo
range dimensionale.
Ovviamente per ogni metodo bisogna fare una serie di ottimizzazioni.
6
Guidubaldi / Gandolfo
09 Bionanotecnologie (Mattu)
16/03/2022
Problemi di questa tecnica:
- è difficile rimuovere i surfattanti perché è necessario usare surfattanti che aumentano la viscosità
della soluzione; quindi, non molto solubili in acqua;
- i solventi utilizzati sono potenzialmente tossici, come il diclorometano;
- applicando sforzi meccanici si potrebbe danneggiare il principio attivo;
- il metodo è applicabile solo ai farmaci solubili nei soventi organici, non va bene per quelli solubili
in acqua. Nelle gocce di solvente rimangono il polimero e il farmaco, perché questi sono solubili in
quel solvente e non solubili in acqua; se invece si utilizza un farmaco solubile in acqua, niente
impedirà al farmaco di lasciare le particelle e le gocce di solvente e andare verso l’acqua. Ecco perché
questo metodo non è adatto per i farmaci solubili in acqua.
DOPPIA EMULSIONE
In una doppia emulsione si hanno più di due
fasi. Le doppie emulsioni quindi possono
essere:
•
•
acqua in olio in acqua,
olio in acqua in olio.
A noi interessa la prima perché è questa ad
essere adatta alle applicazioni biologiche.
Si hanno quindi tre fasi:
- una fase interna, che nell’emulsione ‘acqua in olio in acqua’ è l’acqua,
- una fase dispersa ovvero l’olio, che sarebbe il solvente che contiene il polimero e un emulsionante
- una fase continua, o fase esterna, cioè l’acqua che contiene a sua volta un altro emulsionante.
Quindi ‘acqua in olio ’ è la prima emulsione che si forma, la quale viene di nuovo emulsionata in
acqua.
Grazie alla doppia emulsione si possono incapsulare anche farmaci solubili in acqua (cosa non
possibile con la singola emulsione).
7
Guidubaldi / Gandolfo
09 Bionanotecnologie (Mattu)
16/03/2022
Come si fa?
Si forma innanzitutto l’emulsione primaria,
cioè quella acqua in olio (W/O). Quindi si usa
la fase interna, cioè la fase acquosa nella quale
si mette il farmaco solubile in acqua; lo si
aggiunge al solvente (olio) che a sua volta può
contenere un surfattante e si applica
agitazione meccanica, così facendo le gocce
d’acqua si disperdono nel solvente: nelle
gocce è presente il farmaco, mentre nel
solvente è presente il surfattante che
stabilizza le gocce d’acqua nel solvente. Si è
così formata l’emulsione primaria (in cui il farmaco è sciolto in acqua, si può dire che l’acqua è il
solvente del farmaco, mentre il polimero e il surfattante sono sciolti nel solvente organico, ovvero
nell’olio).
A questo punto questa prima emulsione viene
messa in acqua, si emulsiona di nuovo (cioè si
agita) e si forma l’emulsione secondaria, nella
quale il solvente che contiene le gocce d’acqua
con il farmaco, appena tocca l’acqua sotto
agitazione va a formare delle gocce. Tali gocce
di solvente contengono all’interno le goccioline
di acqua che vengono dall’emulsione primaria
e che quindi hanno all’interno il farmaco
idrosolubile. Nelle gocce di solvente è presente
però anche il polimero ancora sciolto. In acqua
è presente, come già detto, anche un altro surfattante; quindi, sulla superficie delle particelle che si
stanno formando c’è anche il surfattante che le stabilizza.
Alla fine, quando viene fatto evaporare il
solvente (abbassando la pressione e/o
aumentando la temperatura), esso se ne va e il
polimero, non essendo solubile in acqua,
solidifica diventando quindi una matrice solida
con sulla matrice ancora un po' di surfattante e
con all’interno il farmaco idrosolubile che è
rimasto intrappolato.
[il polimero solidifica perché non è solubile
all’acqua, quindi quando il solvente evapora e il
polimero entra in contatto con le gocce d’acqua
solidifica nella forma che gli era stata assegnata].
8
Guidubaldi / Gandolfo
09 Bionanotecnologie (Mattu)
16/03/2022
Vantaggi e svantaggi di questa tecnica
- permette di incapsulare molecole idrosolubili (come peptidi o altre biomolecole), questo è un
vantaggio perché si è visto che con la singola emulsione non si può fare;
- si possono controllare le dimensioni modulando la concentrazione dell’emulsionante nella fase
interna ed esterna, però è difficile rimuovere i surfattanti, soprattutto quelli nel solvente organico
che rimangono intrappolati nelle gocce;
- i solventi sono potenzialmente tossici,
- si deve anche in questo caso controllare il calore che si genera durante l’agitazione ed in particolare
in questa tecnica è ancora più importante controllarlo rispetto alla tecnica precedente perché se si
vogliono intrappolare i peptidi o delle biomolecole esse sono più sensibili alle alte temperature
rispetto ai farmaci sintetici; quindi, le alte temperature rischiano di danneggiare il principio attivo
del farmaco che si vuole incapsulare.
9
De Iasi/Di Caccamo
10 Bionanotecnologie (Mattu)
17/03/2022
Metodo dello spostamento del solvente o della nanoprecipitazione
Metodo più facile e veloce rispetto a quello delle emulsioni e si differenzia grazie all’utilizzo di un
solvente miscibile con l’acqua. Si hanno
sempre due fasi:
1. Solvente che contiene il polimero ed
eventualmente il farmaco; 2. Acqua
con l’emulsionante. L’emulsionante
aggiunto, in questo caso, è un
tensioattivo (sapone) blando, ovvero
non necessita di una sostanza per
aumentare la viscosità della soluzione,
per cui facilmente rimovibile.
Diversamente dalle emulsioni, non c’è bisogno di stabilizzare la goccia, l’interesse è quello che le
gocce siano sospese.
Aggiungiamo l’acetone, il polimero ed il farmaco in acqua, contenente l’emulsionante. Il farmaco
ed il polimero devono essere solubili nello stesso solvente e non solubili nel non solvente
(acqua), se no la tecnica non risulta applicabile. Per cui la soluzione polimero e farmaco, viene
aggiunta un po’ alla volta all’acqua. Quando la
prima goccia di acetone tocca l’acqua:
1.
Il surfattante presente nell’acqua andrà
a disporsi all’interfaccia in modo da stabilizzare
la goccia;
2.
Il solvente, essendo miscibile con
l’acqua, tenderà a lasciare la goccia per
mescolarsi all’acqua;
3.
Alla sua riduzione, il polimero tende a
solidificare intrappolando il farmaco al suo
interno. L’acetone sarà intanto giunto sulla
superficie iniziando l’evaporazione, che può avvenire sia naturalmente o tramite induzione,
abbassando leggermente la pressione.
Si formano, istantaneamente, nanoparticelle solide stabilizzate dal surfattante, si fa evaporare
completamente il solvente, raccogliendo infine le particelle per centrifugazione.
Svantaggi
Vantaggi
Il solvente deve essere miscibile con l’acqua e la Nanoparticelle monodisperse e di piccole
sua scelta è molto limitata
dimensioni (<200nm)
Si possono utilizzare solo farmaci Idrofobici
Metodo istantaneo
Non è possibile concentrare troppo le soluzioni, Non si applicano sforzi durante la formazione
ovvero non si possono aumentare le dosi di
di particelle, per cui il farmaco e le particelle
farmaco e polimero oltre un certo livello,
non vengono danneggiate
1
De Iasi/Di Caccamo
10 Bionanotecnologie (Mattu)
17/03/2022
altrimenti la diffusione del solvente verrebbe
ostacolata
Surfattanti facilmente rimovibili e metodo
istantaneo
Metodo difficile da scalare, ovvero si lavora
bene solo su piccole scale come mL e mg
Solventi facilmente evaporabili e non tossici
Metodo del salting out
Metodo ibrido dove vengono utilizzati due
solventi, miscibili tra loro: un generico solvente,
contenente polimero e farmaco, ed acqua,
eventualmente contenente il surfattante ed un
agente di salting-out, ovvero un elettrolita
(genericamente cloruro di magnesio). Ad una
certa concentrazione dell’elettrolita in acqua, i
due solventi non risultano essere più miscibili,
per cui è possibile l’emulsione. Una volta
ottenuta l’emulsione viene aggiunta acqua,
allora l’elettrolita diminuisce, facendo sì che
diminuisca anche la sua concentrazione,
perdendo l’effetto di salting-out. L’acqua ed il
solvente diventano nuovamente miscibili, per
cui, il solvente lascerà le particelle
spontaneamente muovendosi verso l’acqua ed evaporando. In questo mondo si ottiene il
vantaggio delle emulsioni, quale la scalabilità, e l’assenza di applicazioni di forti stress per
l’evaporazione, vantaggio della nanoprecipitazione. Il metodo risulta essere limitato dalla
scelta del solvente, dai farmaci che devono essere unicamente solubili nel solvente e dalla
scelta dell’agente di salting-out, che deve essere tale da inibire della miscibilità tra solventi.
Metodo del cross linking o di gelificazione ionica
2
De Iasi/Di Caccamo
10 Bionanotecnologie (Mattu)
17/03/2022
Vantaggioso perché si può lavorare in
acqua, nella quale si aggiunge l’agente
di cross linking ed il polimero +
farmaco, richiedendo una blanda
agitazione magnetica. Le particelle si
formano spontaneamente in soluzione
grazie all’agente aggiunto, che di solito
è un elettrolita, ovvero uno ione, di
carica opposta a quella presente sul
polimero; per questo si definisce cross
linking ionico, poiché viene sfruttata
l’interazione elettrostatica tra l’agente
e le catene polimeriche. È, inoltre,
biocompatibile.
Lavorando in acqua è possibile incapsulare farmaci solubili in acqua, principalmente biomolecole o
proteine, ovvero molecole sensibili alla degradazione. In genere è utilizzato per polimeri di origini
naturale, quali il Chitosano e l’Alginato, ma funziona con tutti i gruppi di polimeri in grado di
assumere una carica netta. Si possono non utilizzare surfattanti, ma (limite del metodo) il
polimero ed il farmaco devono essere solubili nel solvente, tipicamente in acqua. Si ha quindi una
soluzione con polimero e farmaco e una con l’agente di cross-linking. Solitamente l’agente di
cross-linking è un elettrolita/ione di carica opposta a quella sul polimero, per questo è detto crosslinking ionico perché si sfrutta l’interazione tra polimero e agente di cross-linking. Nella soluzione
contenente cross-linking, quindi, viene gocciolato polimero con il farmaco ed immediatamente
l’elettrolita (l’agente) andrà ad interporsi tra le catene creando delle reticolazioni e stabilizzando la
struttura della goccia. Si genera una matrice densa che è in grado di intrappolare il farmaco.
Rigorosamente i polimeri ottenuti sono rappresentabili meglio con dei gel che con dei solidi, per
questo il metodo prende anche il nome di gelificazione ionotropica.
•
•
Chitosano, polimero che presenta delle cariche positive, gruppi amminici NH2, che in
specifiche condizioni di pH si protonano per diventare NH3+. Per cross linkare il Chitosano,
si utilizza uno ione di carica opposta, in genere il Tripolifosfato (TPP), ovvero un polianione.
Il TPP si interpone tra le due catene di Chitosano generando ponti, grazie all’interazione
elettrostatica tra il gruppo amminico protonato e la sua carica negativa. Allora, gocciolando
il composto di Chitosano, acqua e farmaco in acqua contenente TPP, quest’ultimo blocca la
struttura nella forma con cui la goccia giunge in acqua. Si ottiene, così, un polimero
reticolato simile ad un gel. Si può svolgere anche il processo inverso, facendo gocciolare
l’acqua nel Chitosano, ma generalmente non si utilizza.
N.B. Si lavora sempre in condizioni in cui le cariche vengono mantenute.
Alginato, polimero le cui catene presentano gruppi carbossilici, presentando, così, carica
netta negativa; Perciò, vengono utilizzati ioni calcio per crosslinkare le sue molecole.
Gocciolando la soluzione di alginato nella soluzione contenente ioni calcio, si formeranno le
strutture reticolate (figura b) di forma simil sferica, ovvero particelle di alginato di carica
negativa, poiché in superficie non viene neutralizzato nulla. Le cariche negative superficiali
possono essere sfruttate, quindi, per rivestire la struttura con un altro polimero di carica
3
De Iasi/Di Caccamo
10 Bionanotecnologie (Mattu)
17/03/2022
positiva, come ad esempio la Polilisina (figura c), che va appunto a disporsi sulla superficie
delle particelle, stabilizzandole ulteriormente.
Svantaggi
Vantaggi
Scelta limitata di farmaci, che devono essere
Lavorazione con polimeri naturali
idrosolubili, e di polimeri, che devono
presentare
gruppi con carica netta
Lavorazione con unico solvente
Devono essere soddisfatte specifiche condizioni di
pH, per mantenere l’equilibrio tra le cariche e non
Lavorazione con nessun surfattate
destabilizzare i cross-link
Il cross-link ionico non di tipo chimico, perciò non
si riscontrano problemi di tossicità o variazione di
temperatura
Difficilecontrollare le dimensioni ;
Poichè sono possibili i fenomeni di aggregazione,
crosslinkando varie particelle insieme
Si possono incapsulare farmaci idrosolubili e
molecole sensibili alla degradazione
Domanda sul gel: Si parla di gel perché gocciolando in acqua il polimero, quest’ultimo al contatto
subisce l’azione dell’agente di cross-linking iniziando la reticolazione. Le particelle saranno quindi
costituite da maglie polimeriche reticolate da legami di tipo ionico, che permettono di avere una
struttura stabile, all’interno della quale resta bloccata l’acqua. Definizione: polimero reticolato in
grado di assorbire acqua.
Riassumendo: Tutti questi metodi sono validi per quanto riguarda nanoparticelle ottenute da
polimeri preformati di origine sintetica o naturale.
Il metodo viene scelto in funzione del tipo di polimero e/o sulla natura del principio attivo del
farmaco da incapsulare. I vari metodi si basano sull’applicazione di stress e/o sulla
precipitazione/diffusione ed emulsione. A seconda del metodo utilizzato è possibile incapsulare sia
farmaci idrofilici che idrofobici.
4
De Iasi/Di Caccamo
10 Bionanotecnologie (Mattu)
17/03/2022
Nanoparticelle lipidiche
Nanoparticelle a base lipidica ma presentano alcuni vantaggi tipici delle particelle polimeriche,
come ad esempio la possibilità di utilizzare sui fosfolipidi posso usare una serie di gruppi funzionali
e molte molecole diverse sui quali a loro volta posso graffare diversi ligandi o altre molecole come
il PEG, rendendo possibili svariate modifiche chimiche. Si ottengono tramite lipidi ed in base al
lipide scelto per la realizzazione, vengono divise in:
• Liposomi, strutture sferiche cave, circondate da uno
o più doppi strati lipidici e sono il primo tipo di
nanoparticelle ad essere stato sviluppato. La parte
centrale è generalmente composta da acqua per cui
è possibile inserire all’interno farmaci idrofilici,
mentre il doppio strato lipidico è lipofilo, per cui
possono essere incapsulati farmaci idrofobici. La
composizione del doppio strato è molto simile a
quella della membrana cellulare e per questo
motivo, i liposomi sono in grado di fondersi
facilmente con le membrane cellulari. La superficie è
facilmente modificabile ed i componenti principali
sono i fosfolipidi, molecole che costituiscono il
doppio strato, ed il colesterolo.
I fosfolipidi sono molecole anfifiliche, costituite da
una testa polare contenente il gruppo fosfato, idrofila e due code apolari (idrofobe) di acidi
grassi. Mettendoli in acqua tenderanno, quindi, a massimizzare il contatto con l’acqua delle
teste, minimizzando il contatto con l’acqua delle code, formando la struttura del doppio
5
De Iasi/Di Caccamo
10 Bionanotecnologie (Mattu)
17/03/2022
strato lipidico: le code di una molecola si portano a contatto con le code delle altre
molecole.
Sagitata meccanicamente la soluzione lipidica, si ripiega formando una sfera, assumendo la
configurazione di minore energia.
Il colesterolo, invece, serve a fluidificare la membrana lipidica. Essendo una molecola
idrofobica, si interpone quasi totalmente all’interno del doppio strato lipidico tra le catene,
ad eccezione di una porzione polare che tenderà a rimanere in prossimità delle teste,
impedendo, così, la formazione di legami ad idrogeno (deboli) tra le code e rendendo la
membrana più deformabile e fluida.
I liposomi si classificano in:
Liposomi con un singolo doppio strato lipidico, vescicole unilamellari, ulteriormente
classificate in funzione delle loro dimensioni (GIGA guv- LARGE luv - MEDIUM muv - SMALL
suv).
Liposomi con più strati lipidici e prendono il nome di vescicole multilamellari, MLV, (se
strati concentrici, struttura a cipolla) o multi vescicolari, MVV, anche note come
6
De Iasi/Di Caccamo
10 Bionanotecnologie (Mattu)
17/03/2022
oligovescicolare o oligolamellare, OLV, (diverse dimensioni di doppio strato lipidico tutte
inglobate in un doppio strato più grande).
Le strutture multilamellari o multivescicolari si ottengono più facilmente in modo
spontaneo ed è possibile trasformarle in vescicole unilamellari sottoponendo i lipidi a
processi termici o di estrusione, ovvero di modifica meccanica della struttura. La presenza
del colesterolo, che rende la membrana più fluida, favorisce questo processo.
Liposomi unilamellari hanno spessore del doppio strato lipidico pari a 5/6 nm, per cui
volendo incapsulare farmaci idrofobici, le loro dimensioni devono essere ridotte. Perciò, a
parità di diametro tra una LUV ed un MLV, quest’ultima configurazione permette un
incapsulamento più alto, avendo più spazio a disposizione tra le diverse membrane. Tra i
metodi per preparare liposomi ricordiamo il più comune:
Metodo dell’idratazione del film
Si sciolgono i lipidi in un solvente organico, genericamente cloroformio, in cui è presente il
farmaco idrofobico da incapsulare. Una volta evaporato il solvente, si ottiene un film
lipidico secco, con farmaco, che aderisce al pallone di reazione; attraverso un trattamento
termico, diminuendo la temperatura a 4 °C, si rilassa la struttura lipidica, favorendo
l’autoassemblamento, per poi aggiungere acqua.
Se il farmaco da incapsulare è idrofilico, si ripete il procedimento in assenza di farmaco
aggiungendolo al film successivamente, insieme all’acqua.
L’acqua idrata i lipidi, strato dopo strato, facendo sì che questi si assemblino formando
doppi strati lipidici e generando una serie di lamelle sovrapposte. Agitando la soluzione, i
doppi strati si ripiegano in strutture sferiche, formando più facilmente vescicole
oligolamellari.
Attraverso cicli di congelamento e scongelamento della soluzione lipidica ottenuta oppure
estrudendola attraverso un foro/filtro è possibile ottenere strutture unilamellari. I lipidi,
sottoposti ad un abbassamento repentino della temperatura, subiscono dei cambiamenti di
fase, diventando più o meno cristallini e portando a rottura alcuni doppi strati lipidici. Gli
strati aperti, scongelando poi la soluzione, si ripiegheranno per formare altre strutture più
piccole e staccate tra loro. Attraverso il trattamento meccanico, avviene lo stesso
meccanismo di rottura delle lamelle: spingendo meccanicamente le MLV attraverso il filtro
7
De Iasi/Di Caccamo
10 Bionanotecnologie (Mattu)
17/03/2022
si avrà l’apertura di alcuni strati che all’uscita si ripiegheranno per formare strutture a
singola lamella più piccole.
Iterando i due processi si forza la rottura delle strutture grandi e complesse a favore della
formazione di strutture più piccole e semplici.
Quando un farmaco idrofilico giunge sul film, esso si disporrà solo sugli strati più esterni,
non riuscendo a raggiungere quelli più profondi. Per questo motivo, nella formazione dei
liposomi, solo una piccola parte riuscirà ad essere incapsulata con l’agitazione, mentre la
gran parte resterà all’esterno. Allora estrudendo più volte la soluzione, è possibile
incapsulare il restante farmaco libero.
Per controllare le dimensioni finali si può scegliere opportunamente le dimensioni del filtro.
Spesso i due meccanismi vengono svolti in modo combinato.
Tra i farmaci ottenuti con formulazione liposomiale, ricordiamo il Doxil, formulazione
liposomiale della Doxorubicina, ovvero un liposoma unilamellare nella cui zona cava è
presente il farmaco Doxorubicina, idrofilico. La sua superficie contiene PEG per favorire la
circolazione in vivo.
È la prima nano medicina ad essere stata approvata ad uso umano, nel 1995. La prima
versione di Doxil ad essere testata, con nome OLV-DOX, rappresentava una formulazione
oligolamellare di Doxorubicina, ottenuta tramite tecnica di idratazione del film. Questa
configurazione, somministrata nei trial clinici, non ha generato nessun miglioramento
rispetto alla Doxorubicina libera, in quanto molto farmaco era al di fuori del liposoma.
Come si vede dal grafico il livello di farmaco libero, curva più bassa, diminuisce
velocemente e ciò è dovuto al fatto che il farmaco, non presente nei liposomi, viene
espulso dal sangue velocemente.
Inoltre, generava un accumulo non specifico, principalmente nel fegato e nella milza,
organi deputati allo smaltimento delle nanoparticelle dalla circolazione. Per risolvere il
problema della scarsa selettività dei liposomi e della presenza di farmaco all’esterno di essi,
venne ottimizzata la formulazione di preparazione della Doxorubicina, arrivando alla
configurazione oggi utilizzata.
8
De Iasi/Di Caccamo
10 Bionanotecnologie (Mattu)
17/03/2022
-Per risolvere l’accumulo, vennero introdotte delle modifiche superficiali con polimeri
idrofilici, come il PEG, coniando per la prima volta la parola STEALTH per le nanoparticelle:
il nome è dovuto alla loro capacità di circolare nel sangue ritardando il riconoscimento da
parte del sistema immunitario.
-Mentre, per correggere il poco farmaco incapsulato nella struttura oligolamellare, si è
passati alla struttura unilamellare attraverso cicli di estrusione. Queste modifiche hanno
portato ad una nanoparticella con alta efficacia di incapsulazione dovuta alla struttura
unilamellare e con maggiore selettività verso il tumore, rispetto alla doxorubicina libera.
L’immagine mostra l’alto accumulo nelle masse tumorali di Doxil, somministrato per via
endovenosa.
Svantaggi
Vantaggi
Poco stabilità in vivo, molto probabile la fusione Composizione simile a quella della membrana
cellulare
tra più liposomi
9
De Iasi/Di Caccamo
10 Bionanotecnologie (Mattu)
17/03/2022
Probabile apertura in certe condizioni di pH o
di concentrazioni saline
Variabilità della struttura e facile inserimento
de PEG
Probabile apertura in certe condizioni di
concentrazioni saline
Utilizzo di svariati lipidi
Scarsa stabilità a lungo termine in acqua, per
questo motivo vengono preparati poco prima
dell’iniezione.
Capacitò di incapsulare farmaci idrofobici ed
idrofilici
• Nanoparticelle solide lipidiche
Nanoparticelle dotate di struttura massiva, nate per risolvere la scarsa stabilità dei
liposomi, godono dei vantaggi delle particelle polimeriche, mantenendo la soluzione a base
di fosfolipidi. Utilizzando lipidi solidi a temperatura ambiente si ha una particella massiva,
con alta efficacia di incapsulamento dei farmaci, sia idrofilici che idrofobici.
Metodo di microemulsione o di omogeneizzazione a caldo
Metodo di preparazione simile a quello utilizzato per le particelle polimeriche. Per poter
sciogliere i lipidi solidi c’è bisogno di scaldarli.
Si parte da una soluzione di lipidi in solvente e
farmaco; si porta la temperatura a 64 °C, i lipidi
si sciolgono e si gocciola la soluzione in una
soluzione di acqua con emulsionante ad una
temperatura ancora più elevata. Si forma
un’emulsione sottoponendo la soluzione ad
un’energia meccanica, nella quale saranno
presenti, gocce del solvente con il lipide
sciolto, il farmaco ed il surfattante.
Abbassando istantaneamente la temperatura
dai 75 ai 4 °C, si solidifica nuovamente il lipide
intrappolando il farmaco al proprio interno.
Lavando la soluzione, si raccoglie la particella
solida lipidica voluta.
Essendo una tecnica basata sull’emulsione,
risulta essere scalabile. I limiti di questa tecnica
10
De Iasi/Di Caccamo
10 Bionanotecnologie (Mattu)
17/03/2022
sono la scelta del solvente, che deve essere immiscibile con l’acqua; le alte temperature
di processo; il farmaco inoltre deve essere in grado di resistere alle alte temperature, o
della bassa pressione.
Riassumendo: Le nanoparticelle lipidiche risultano essere materiali biocompatibili, formulabili in
liposomi, ovvero strutture cave applicabili clinicamente con successo, in grado di incapsulare
farmaci sia idrofilici che idrofobili. La loro bassa stabilità può essere aumentata attraverso
formulazioni solide, tenendo, però, conto delle alte temperature/basse pressioni richieste, non
facilmente compatibili con tutti i farmaci.
Tecniche di preparazione di particelle basate sui monomeri
È possibile polimerizzare i monomeri in forma di nanoparticella, attraverso vari metodi:
- Polimerizzazione per emulsione, dove le gocce di solvente sono stabilizzate dal surfattante,
facendo sì che la polimerizzazione avvenga al loro interno;
- Polimerizzazione interfacciale, richiede sempre la formazione di emulsioni ma la
polimerizzazione avviene solo all’interfaccia tra le due fasi dell’emulsione, solvente ed
acqua. Questa tecnica è utilizzata per lo più per ottenere capsule polimeriche;
- Polimerizzazione con precipitazione di polimero, sfrutta la diversa solubilità del solvente tra
monomero e polimero (non solubile) ottenuto;
Polimerizzazione in emulsione
Si necessita di un monomero solubile nel solvente, dovendo fare un’emulsione, il solvente e l’acqua
devono essere immiscibili. Metodo facile veloce e scalabile. Se la reazione di polimerizzazione
genera calore, attraverso l’acqua è possibile dissipare facilmente il calore generato. Si ottengono
tipicamente particelle piccole (50-300 nm) e molto monodisperse. Solubilizzando il monomero e
l’eventuale farmaco in acqua con surfattante, si applica quindi energia meccanica per la formazione
di emulsione. Si formeranno le gocce di solvente liquide con al loro interno il monomero ed il
farmaco, stabilizzate dal surfattante, disposto all’interfaccia. Le gocce sono micelle con monomero
all’interno; aggiungendo un iniziatore di polimerizzazione, parte la reazione in acqua. L’iniziatore
tende ad andare dove c’è il monomero per cui si dispone all’interfaccia tra le gocce e l’acqua ed
entrando nelle gocce fa solidificare il monomero facendolo polimerizzare.
Se la goccia presenta grandi dimensioni, l’iniziatore svolge il processo partendo dalle zone della
micella più esterne, richiedendo un tempo complessivo molto più lungo. Al termine del processo
11
De Iasi/Di Caccamo
10 Bionanotecnologie (Mattu)
17/03/2022
sulle particelle più piccole, l’iniziatore residuo farà venir fuori dalla micella più grande altro
solvente con il monomero, creando così micelle più piccole stabilizzate dal surfattante. Risulta
evidente che la polimerizzazione avviene più facilmente sulle micelle piccole, per cui le micelle più
grandi si comporteranno da riserva di monomero e di solvente, fino alla fine della reazione.
12
Furlotti/Scalfaro
11 Bionanotecnologie (Mattu)
17/03/2022
Tecniche di preparazione di particelle basate sui monomeri
Polimerizzazione per condensazione interfacciale
In questo metodo si fa avvenire la polimerizzazione all'interfaccia tra due fasi di emulsione;
esattamente come nel metodo precedente bisogna formare un'emulsione.
C'è bisogno di un solvente
che non sia miscibile con
l'acqua. In questo solvente si
va a sciogliere il monomero 1
(questa volta siamo in
presenza di due monomeri)
insieme al farmaco.
Nell'acqua verrà messo il monomero 2 e l'emulsionante. Dopodiché si
andrà ad aggiungere, come al solito, il solvente nell'acqua e ad
emulsionare, cioè si forma una emulsione per agitazione meccanica.
Così facendo si formeranno delle gocce di solvente (cerchiate in rosso),
dentro le quali è contenuto il monomero 1 e il farmaco (puntini). Nella
superficie esterna, invece, in acqua, si troverà il monomero 2.
La reazione di polimerizzazione avviene tra il monomero 1
e il monomero 2, quindi può avvenire soltanto nel punto in
cui i due monomeri si incontrano, perciò all'interfaccia tra
la goccia liquida di solvente e l'acqua. All'interfaccia si avrà
quindi una struttura a guscio, perché la polimerizzazione
avverrà solamente nella parte esterna, nella parte interna
non avverrà e quindi la struttura risulterà la cava.
Con questa tecnica è possibile ottenere micro e nano capsule. Uno dei
problemi di questa tecnica è la presenza del solvente residuo, perché se
dentro la goccia c’è il solvente, ovvero nella parte liquida, e si fa formare
intorno un guscio solido, sarà difficile eliminare completamente questo
solvente. Quindi delle di tracce di solvente possono restare all'interno della
capsula e possono portare degli eventuali problemi di tossicità.
Polimerizzazione con la tecnica della precipitazione
Si parte da un monomero che è solubile in un solvente, quasi sempre l'acqua. Quando il
monomero polimerizza in polimero, a un certo punto, non è più solubile in quel solvente e quindi
precipita. Per cui si gioca sulle differenze di solubilità tra il monomero il polimero. Si parte dal
monomero e lo si scioglie in acqua, dopo si fa partire la polimerizzazione: si può irraggiare con gli
UV oppure si può dare un iniziatore.
1
Furlotti/Scalfaro
11 Bionanotecnologie (Mattu)
17/03/2022
Si fa iniziare la polimerizzazione e il monomero cresce formano delle catene polimeriche. Quando
queste raggiungeranno una dimensione critica, cioè un certo peso molecolare, non saranno più
solubili in acqua e tenderanno a precipitare. Quindi il monomero polimerizza, dopo che è stata
fatta partire la reazione, si formano degli aggregati, cioè delle catene polimeriche che stanno
crescendo che non sono delle vere e proprie sfere, ma saranno delle strutture meno regolari.
Ad un certo punto, oltre una certa dimensione critica, perdono la solubilità in acqua e precipitano.
Quindi si troverà la formazione di strutture solide, aggregati nano dimensionati solidi che non sono
delle vere e proprie sfere. Quindi se si è in acqua con del farmaco, una parte di questo farmaco
rimarrà intrappolata all'interno di queste strutture che precipitano.
- Si lavora quasi sempre in acqua (questo è un aspetto buono perché viene evitata la
tossicità legata ai solventi): quindi il farmaco deve essere solubile in acqua. Si ha un limite
sulla scelta del monomero e quindi del polimero perché il monomero è solubile in acqua e
il suo polimero non lo deve essere, inoltre, ogni volta che i monomeri reagiscono tra di
loro, la solubilità in acqua si deve perdere;
- Altro vantaggio è il fatto che lavorando in acqua si ha un’ottima capacità di disperdere il
calore che eventualmente viene generato.
Riassumendo:
- È stato visto che ci sono tecniche che permettono di incapsulare farmaci idrofili e idrofobici
(si basano sulle emulsioni);
- La scelta di solventi e polimeri (meglio dire monomeri) è limitata;
- I solventi possono dare problemi di tossicità, soprattutto se non si riesce a eliminarli
correttamente, per esempio nella polimerizzazione all'interfaccia dove si forma la capsula;
- C'è il rischio che rimangano dei residui dell’iniziatore (o catalizzatore) e di monomero oltre
che di solvente. Quindi è bene pulire bene queste particelle dopo la formazione del
polimero;
- Inoltre si fa avvenire una reazione chimica attraverso la quale si polimerizza il monomero.
Durante questa reazione chimica nell'ambiente è presente anche il farmaco e quindi è
difficile evitare che il farmaco venga coinvolto nelle reazioni di polimerizzazione, cioè è
possibile che una parte del monomero reagisca con il farmaco e quindi, in qualche
maniera, venga modificata la struttura chimica del farmaco. È possibile che il farmaco che
2
Furlotti/Scalfaro
11 Bionanotecnologie (Mattu)
17/03/2022
si vuole incapsulare si leghi al monomero che si sta formando, quindi si è formato un altro
farmaco cioè un farmaco legato ad un polimero e non è detto che abbia mantenuto la sua
funzione. Quindi è possibile che facendo reazioni chimiche in presenza nel farmaco esso
perda la sua attività farmacologica, cioè c’è il rischio di inattivazione dei farmaci ed è quello
più grave in queste tecniche.
DOMANDA: La dimensione critica di precipitazione da che cosa dipende? È possibile controllare le
dimensioni finali?
RIPOSTA: È un po’ difficile stabilire qual è la dimensione critica cioè il peso molecolare critico per il
quale polimero non è più solubile nel solvente.
Tipicamente succede che quando il monomero polimerizza la catena cresce, quando raggiunge un
determinato peso molecolare per cui non è più solubile in acqua tenderà a precipitare. Quando
precipita potrà trovare altre catene che stanno crescendo e quindi si formeranno, durante la
precipitazione, degli aggregati tra catene e quindi andranno a precipitare. Questo per dire che è
difficile controllare le dimensioni delle particelle perché dipende da come avviene la
precipitazione, e da quante catene polimeriche interagiscono tra di loro durante la precipitazione.
Non è semplice controllare le precipitazioni solamente sapendo qual è il limite di solubilità in
acqua.
Inoltre il monomero non polimerizza tutto nello stesso modo, quindi la crescita delle catene non è
uniforme. Può essere che una catena più corta e ancora parzialmente solubile venga catturata da
una più grande durante la precipitazione e precipita. Oppure ancora è possibile che una catena
piccola, che sta crescendo, e una catena grande, che sta precipitando, reagiscano a formare una
catena più grande. È un processo piuttosto “casuale” ed è difficile da controllare.
Polymer nanoparticles – toward 3rd generation particles
Si possono avere delle particelle di prima,
seconda o terza generazione. Le particelle
polimeriche avranno una superficie
costituita dal polimero, se è stata lavata
bene e quindi è stato rimosso il surfattante,
oppure è costituita dal polimero e da
qualche eventuale residuo di surfattante
sulla superficie. Le particelle si chiamano di
prima generazione e sono le prime ad essere
state utilizzate finché non si è capito che
serviva rendere la superficie in grado di
evadere il controllo da parte del sistema
immunitario.
Sono chiamate particelle di seconda generazione quelle che presentano in superficie delle catene
di PEG. Mentre le particelle che presentano dei ligandi per il riconoscimento specifico sono
chiamate particelle di terza generazione.
3
Furlotti/Scalfaro
11 Bionanotecnologie (Mattu)
17/03/2022
Making third generation particles
Come si fa a passare dalla particella di prima generazione ottenuta dopo le tecniche di
preparazione viste, quella che ha la superficie generica e il surfattante, alle strutture più avanzate
di seconda o terza generazione? Ci sono più modi, tutti coinvolgono le modifiche della struttura
del polimero:
1) Si possono sfruttare gruppi funzionali presenti nel polimero.
Si ha un polimero, poliuretano (PUR with BOC-protected NH2), con cui si vanno a preparare le
particelle. Questo polimero presenta un gruppo funzionale (NH2-BOC) che è un gruppo
amminico presente sulla catena laterale (si vede che non si trova sulla catena principale): per
questo motivo è disponibile a reagire con altri gruppi. Durante tutta la preparazione delle
particelle, il gruppo amminico è inattivo perché presenta il gruppo di protezione BOC che
impedisce al gruppo amminico di reagire con altri gruppi.
Si usa il metodo dell'emulsione: una parte di questi gruppi pendenti si troverà sicuramente
sulla superficie. Quindi sulla superficie c'è un gruppo funzionale anche se ancora non è
reattivo. Il gruppo BOC si può rimuovere abbassando il pH (pH acido). In questo modo
rimangono sulla superficie dei gruppi amminici che, invece, in questa condizione, sono
reattivi quindi è possibile sfruttarli per legare delle biomolecole sulla superficie.
Nell'immagine viene legato sulla superficie un anticorpo monoclonale sfruttando la reazione
tra gruppo amminico sulla superficie delle particelle e un gruppo carbossilico dell'anticorpo.
In questo modo è possibile modificare la superficie della particella e renderla di seconda o di
terza generazione; quindi si può attaccare il PEG oppure si può attaccare direttamente il
ligando. In ogni caso è possibile modificare la superficie della particella sfruttando gruppi
funzionali già presenti nel polimero per legare alla superficie ciò che interessa.
Le particelle di prima generazione sono biocompatibili, ma il problema è che si ha difficoltà
nel trasporto, cioè come queste particelle si distribuiscono nell'organismo. Le particelle di
4
Furlotti/Scalfaro
11 Bionanotecnologie (Mattu)
17/03/2022
prima generazione che non presentano il PEG in superficie vengono direttamente catturate
dalle cellule del sistema immunitario e vengono eliminate dal fegato; quindi per ridurre
questo accumulo nel fegato si aggiunge il PEG per renderle capaci di circolare più a lungo.
Per le molecole di seconda generazione è possibile legare il PEG, che è la molecola più usata,
ma anche particelle alternative che presentano in superficie delle membrane cellulari, ad
esempio la membrana cellulare dei macrofagi che sono cellule circolanti; si pensa che queste
cellule siano in grado di circolare più a lungo perché sono mascherate come cellule che
circolano normalmente.
In genere si può dire che le particelle di prima generazione siano biocompatibili; le modifiche
superficiali vengono fatte più per migliorare la questione del trasporto.
Per le particelle di seconda generazione si preferisce di norma utilizzare il PEG, in altri casi in
superficie possono presentare delle membrane cellulari come quelle dei macrofagi, quindi si
può cambiare in questo modo la superficie per dare proprietà stealth.
2) Un altro modo per modificare la superficie della particella è quello di partire direttamente da
polimeri che presentano il PEG o gruppi funzionali attaccati al PEG.
Ad esempio si possono utilizzare copolimeri
a blocchi, quindi si usa un polimero fatto ad
esempio da un blocco di PLGA (verde) e da
un blocco di PEG (viola), quindi si ha un
polimero idrofobico (PLGA) e un polimero
idrofilico (PEG).
Perciò il polimero con cui si vanno a
costituire le particelle è costituito da due blocchi.
5
Furlotti/Scalfaro
11 Bionanotecnologie (Mattu)
17/03/2022
Si può partire dai copolimeri e fare la particella: la porzione
idrofobica (azzurra) si disporrà all'interno mentre quella
idrofilica all'esterno (verde).
Quindi la particella si fa direttamente con il copolimero
PLGA-PEG, con il PEG tutto sulla superficie. Tutto il PEG sulla
superficie può dare un fenomeno di saturazione, cioè è
possibile che sulla superficie ci sia troppo PEG.
Normalmente si compra il PEG con già dei gruppi funzionali
terminali (come nell'esempio visto prima era il gruppo
amminico).
Quindi intorno alla particella si hanno un sacco di gruppi
funzionali esposti sulla superficie. Se si vuole fare legare il
ligando per passare alla particella di terza generazione si rischia di saturare la superficie
avendo troppi siti per il legame. Quindi a volte queste strutture permettono uno scarso
controllo della composizione della superficie, poiché tanto ligando tende a reagire sulla
superficie.
Si rischia di saturare la superficie mettendoci troppo ligando. Si ha scarso controllo del
numero di gruppi funzionali in superficie che si traduce nello scarso controllo della
composizione della superficie, cioè di quanto ligando posso legare.
Avere troppo ligando sulla superficie significa, per prima cosa, la possibilità di attivare una
reazione negativa da parte del sistema immunitario e quindi l'eliminazione della particella;
in secondo luogo se il ligando non è libero di muoversi e non è in grado di interagire con il
proprio recettore, la reazione specifica ligando-recettore non può avvenire. Quindi il
ligando, soprattutto quando è una molecola grande, deve avere spazio per muoversi sulla
superficie, in modo da trovare la corretta conformazione necessaria per interagire con il
suo recettore. Se ce n'è troppo in superficie non si ha nessuno riconoscimento specifico,
quindi il ligando non riuscirà a ruotarsi in modo opportuno per reagire con il recettore. Per
questo una superficie troppo carica di ligandi è controproducente.
Inoltre quello che si vuole è avere un controllo di quanto ligando si è riusciti a mettere più
o meno sulla superficie. Se si hanno troppi gruppi funzionali questo controllo viene perso e
il ligando reagisce come vuole.
3) Quindi per ridurre questo problema invece di utilizzare soltanto il polimero a blocchi, si
utilizza un mix, cioè un blend, di polimero a blocchi (es PLGA-PEG) e il polimero PLGA non
legato al PEG. Si decide dall'inizio qual è il rapporto tra PLGA senza PEG, e PLGA-PEG dove il
PEG presenta un gruppo funzionale. Si mischiano questi due polimeri secondo un rapporto
deciso all’inizio della preparazione, si prepara particella e a questo punto il polimero PLGA,
sia che sia legato, sia che non lo sia al PEG, andrà a disporsi tutto al centro mentre il PEG
andrà a mettersi sulla superficie.
Siccome è stato usato più PLGA rispetto a quello PLGA-PEG, c'è molto meno PEG sulla
superficie ed è possibile controllare in modo fine il numero di gruppi funzionali sulla
superficie. A questo punto si aggiunge il ligando, questo si lega alla superficie solamente nei
punti in cui è presente il PEG.
6
Furlotti/Scalfaro
11 Bionanotecnologie (Mattu)
17/03/2022
Una strategia per controllare la composizione della superficie consiste nell’usare un mix tra
il polimero normale e il polimero peghilato, cioè legato al PEG. In questo modo scegliendo
il rapporto tra i due si controlla quanto PEG sarà sulla particella e di conseguenza si
controlla il numero dei gruppi funzionali sulla superficie e il numero di ligandi presenti sulla
superficie della particella.
4) Ultimo modo è preparare delle particelle dette particelle ibride.
7
Furlotti/Scalfaro
11 Bionanotecnologie (Mattu)
17/03/2022
Queste sono ad esempio ibridi fra una particella polimerica e una
particella lipidica. Quindi si avrà una particella polimerica (blu) che
forma il core e la superficie sarà costituita da lipidi (rosso).
È possibile comprare dei lipidi di diversa natura quindi di diversa
composizione. Alcuni lipidi presentano una catena di PEG, quindi si
può scegliere la composizione lipidica della superficie includendo
anche dei lipidi che presentino delle catene di PEG.
Quindi si sarà rivestita la particella polimerica con una componente
lipidica (quindi sarà stata resa più affine alla membrana cellulare) e si sarà anche inserito il PEG,
quindi si ottiene una particella di seconda generazione, ma si possono anche utilizzare dei lipidi
terminati con un ligando, ottenendo così particelle di terza generazione.
Sfruttando i lipidi e loro versatilità, modificando i lipidi con eventuali anticorpi o ligandi, si fanno
assemblare sulla superficie della particella polimerica. In questo modo si è fatta una modifica della
superficie inserendo tutto ciò che serve per renderla di seconda o di terza generazione.
Questi possono essere lipidi commerciali oppure si possono prendere direttamente dalle
membrane cellulari, si può rivestire la particella anche con una componente lipidica delle
membrane cellulari. Si prende una cellula e i lipidi che compongono la sua membrana e si fanno
auto assemblare sulla superficie della particella.
Quindi i lipidi possono essere utilizzati per mascherare la superficie della nanoparticella dandole
capacità di seconda o di terza generazione, cioè di circolare a lungo e di riconoscere il target in
modo selettivo.
È possibile aggiungere anche i lipidi peghilati. I lipidi possono legare il PEG, oppure al PEG si può
legare il legando oppure si può direttamente legare il ligando al lipide.
Il metodo più utilizzato, in genere, è sempre quello che utilizza o quello di mix di copolimeri col
PEG, oppure quello che modifica direttamente la superficie della particella. Si tende a non
utilizzare il primo metodo perché bisogna fare delle reazioni chimiche sulla particella, ad esempio
portare il pH a 1 non è una condizione molto semplice da sopportare, perché si rischia di creare
una condizione di difficile stabilità per la particella stessa. È più difficile pensare di traslare questa
applicazione su una vera applicazione clinica. Quindi in genere si utilizza il terzo metodo oppure si
comprano polimeri in cui il ligando è già presente, quindi sfruttare la formazione della particella
già in presenza del ligando, invece che modificare la superficie della particella si utilizzano polimeri
che già contengono il ligando in modo da facilitare l'ottenimento di questa struttura. Le particelle
di terza generazione, cioè quelle che fanno targeting, non sono ancora testate in clinica. Perciò in
genere si utilizzano polimeri già peghilati o lipidi già peghilati.
Concludendo: per rendere la particella in grado di riconoscere il suo target bisogna modificare la
superficie, quindi c'è bisogno di particelle in grado di circolare a lungo (stealth) e in grado di
conoscere il loro target.
Si possono ottenere modificando la superficie delle particelle polimeriche usando sono i gruppi
funzionali già presenti nel polimero (strategia 1), o copolimeri a blocchi che contengano già il PEG
con il gruppo funzionale, oppure dei blend tra polimero e copolimero, oppure preparando
strutture ibride in cui la particella polimerica costituisce il core e la superficie è formata da lipidi di
diversa composizione che possono essere artificiali o derivati dalle membrane cellulari.
8
Furlotti/Scalfaro
11 Bionanotecnologie (Mattu)
17/03/2022
Nanoparticelle intelligenti
Una particella intelligente è una particella in grado di rispondere a uno stimolo applicato
dall'esterno. Per quanto riguarda le particelle polimeriche intelligenti, la risposta allo stimolo
deriva dalla composizione del polimero. Quindi il polimero è stato strutturato in modo da
contenere dei gruppi capaci di reagire in specifiche condizioni (ad esempio di pH), quindi è in
grado di rilevare un cambiamento di condizioni esterne e di modificare la propria composizione di
conseguenza.
Sono già stati visti esempi di particelle intelligenti parlando di particelle inorganiche, ad esempio le
particelle di ossidi di ferro sono in grado di rispondere a uno stimolo come ad esempio un campo
magnetico applicato dall'esterno. Quindi anche le particelle inorganiche sono intelligenti: se si
applica la luce nel caso delle particelle d'oro queste attuano una risposta.
Per le particelle inorganiche la risposta allo stimolo è dovuta alle dimensioni nano: le nano
particelle di ossidi di ferro rispondono al campo magnetico scaldandosi perché sono alla
nanoscala, poiché alla nanoscala ruotano e si scaldano. La risposta allo stimolo è dovuta alla nano
dimensione. Lo stesso accade per le particelle d'oro: queste si scaldano se colpite con la luce
perché presentano il fenomeno della risonanza plasmonica di superficie, caratteristico delle
particelle nano di oro e non dell’oro in forma di bulk. Quindi è una proprietà che il materiale ha
acquisito per il fatto di essere stato formulato alla nanoscala.
Per i polimeri non è così. Il polimero contiene in sé i gruppi che danno la risposta agli stimoli e ce li
ha sia in forma di bulk sia alla nanoscala. Quindi la capacità di rispondere allo stimolo dipende
solamente dalla struttura del polimero che è la stessa alla nano e alla macroscala. Quindi non c'è
vantaggio dato dal lavorare alla nanoscala. L'unica cosa che cambia è il trasporto, cioè il modo in
9
Furlotti/Scalfaro
11 Bionanotecnologie (Mattu)
17/03/2022
cui il polimero viene trasportato nell'organismo: se grande verrà trasportato in un modo o non
verrà trasportato, il polimero formulato in forma di nanoparticelle verrà trasportato in un certo
altro modo. Modificando la superficie della nanoparticella polimerica si può decidere come questa
verrà trasportata. Il PEG dà la possibilità di farla circolare più a lungo.
Per quanto riguarda le particelle polimeriche è possibile includere la risposta a specifici stimoli che
quasi sempre dipendono dall'ambiente patologico. Rispetto alle particelle di ossidi di ferro o di
oro, per le quali viene applicato lo stimolo esterno, spesso le particelle polimeriche sono in grado
di rispondere a uno stimolo che trovano già nel momento in cui si accumulano.
Quindi si produce la particella polimerica, la si fa trasportare nel sito che si vuole raggiungere (ad
esempio si accumula nel tumore), e li troverà un certo stimolo, ad esempio una diversa condizione
di pH. Questo stimolo, che la particella riceve nel sito in cui si accumula, induce una modifica della
struttura polimerica della particella stessa.
Tipicamente la particella si disintegra rilasciando il suo farmaco. Perciò polimeri stimolo sensibili
permettono di realizzare particelle stimolo sensibili che vengono trasportate nel sito target dove
ricevono lo stimolo che induce la disgregazione della particella e quindi al rilascio del farmaco.
È stato visto che i siti patologici presentano una serie di caratteristiche che li rendono diversi dai
siti sani: ad esempio per i tumori è presente una angiogenesi alterata, quindi molti vasi sanguigni
aggrovigliati, presentano uno scarso smaltimento di calore e scarso smaltimento dei prodotti di
scarto del metabolismo cellulare. Quindi è alterato lo stato metabolico del tessuto e così vi sono
una serie di modifiche: carenza di ossigeno (ambiente ipossico), diversa concentrazione di
proteine ed enzimi, quindi per rispondere alle particolari condizioni dei tessuti patologici
specifiche proteine possono essere richiamate in quel tessuto.
Ad esempio i tumori tendono a richiamare delle proteine che degradano la matrice extracellulare:
lo fanno perché hanno bisogno di più spazio e perché a un certo punto le cellule tumorali si
vogliono staccare per potersi spostare e migrare da un'altra parte cercando un ambiente più
favorevole.
Se nella massa che si sta formando si genera un ambiente in cui manca ossigeno perché non ci
sono abbastanza nutrienti, le cellule tenderanno a staccarsi e andare da un'altra parte. Quindi
dentro la massa vengono spesso richiamate delle proteine che agiscono in supporto alle cellule
permettendo loro più facilmente di staccarsi e migrare. In questo modo si può sfruttare la
presenza di proteine ed enzimi in concentrazione elevata all'interno delle masse tumorali.
Chiaramente un ambiente con scarso ossigeno, alterato stato ipossico, avrà livelli di pH diversi
rispetto ai tessuti sani, in particolare pH sarà più acido rispetto a quello dei tessuti sani. Quindi uno
stimolo che si può sfruttare è anche il pH.
Si sfrutta anche l'ambiente ossidativo che è presente all'interno delle masse tumorali, dovuto al
fatto che si accumulano specie reattive dell'ossigeno e quindi alterano lo stato ossidativo del
tessuto.
Queste condizioni non sono solo dei tumori, ma anche altri tessuti ad esempio quelli infetti
presentano condizioni simili: tessuti infetti che presentano un'elevata proliferazione batterica
possono dare alterato stato metabolico e condizioni più acide rispetto all'ambiente esterno. Perciò
anche altri tipi di patologie possono essere trattate usando polimeri stimolo sensibili.
10
Furlotti/Scalfaro
11 Bionanotecnologie (Mattu)
17/03/2022
Polymer nanoparticles – response to endogenous stimuli
Gli stimoli che quindi si possono sfruttare sono tre:
- La concentrazione di proteine o enzimi;
- Il pH;
- Lo stato ossidativo.
Questi tre stimoli possono essere sfruttati per creare particelle in grado di attuare una specifica
risposta in funzione di uno o più stimoli messi insieme.
Il polimero con cui si realizza la particella conterrà dei gruppi che cambiano la loro conformazione
in funzione dello stimolo esterno.
Si potrà avere una particella realizzata con un polimero stimolo sensibile e avrà ad esempio una
porzione che contiene un certo gruppo funzionale in grado di rispondere allo stimolo (ad esempio
il pH).
Quando si mette la particella nelle condizioni di ricevere lo stimolo il polimero cambia la sua
conformazione e la particella si disgrega interamente, questo è in seguito alla modifica di
conformazione che il polimero subisce al pH opportuno. In questo modo avverrà il rilascio del
farmaco.
Oppure si può utilizzare un polimero che contenga un legame sensibile allo stimolo (per esempio
sempre il pH). In questo
caso si legano polimero e
farmaco con un legame
pH sensibile. Quando
arriva lo stimolo esterno
questo legame si rompe e
il farmaco viene rilasciato.
Sono due modi differenti di fare la stessa cosa: nel primo caso si disgrega la particella, nel secondo
caso si rompe soltanto il legame tra il polimero e il farmaco e quindi l'integrità della particella
viene mantenuta.
11
Furlotti/Scalfaro
11 Bionanotecnologie (Mattu)
17/03/2022
Inoltre si può realizzare interamente la nanoparticella con il
polimero stimolo sensibile oppure si può utilizzare il polimero
stimolo sensibile per rivestire un'altra particella.
Si ottiene così un rivestimento stimolo sensibile e quando si
applica lo stimolo si disgrega solo il polimero del rivestimento
e viene così liberata la particella che si trovava all'interno.
In questi tre modi si ottiene la liberazione del farmaco in specifiche condizioni, ad esempio
specifiche condizioni di pH o determinate condizioni che si trovano nell'ambiente patologico.
È quindi possibile sfruttare la chimica dei polimeri per andare a creare delle particelle che siano in
grado di circolare a lungo, che siano in grado di accumularsi per effetto passivo o per
riconoscimento specifico, e una volta accumulate nel target, che siano in grado di rispondere allo
stimolo che ricevono in quel sito.
Si sfrutta quindi la chimica dei polimeri per avere una risposta allo stimolo che ricevo nel sito
target. La particella chiaramente prima deve però arrivare nel sito target e quindi occorre utilizzare
una corretta strategia di design della particella in modo che questa sia correttamente trasportata
nel sito, dove ci si aspetta che riceva lo stimolo che indurrà il rilascio.
Se la cellula non riesce ad arrivare nel sito è inutile che
abbia una sensibilità allo stimolo.
Quindi serve un corretto design del polimero in modo
che possieda capacità stealth ed eventualmente
capacità di riconoscimento specifico in modo che possa
arrivare nel sito dove si possa poi sfruttare la capacità di
rispondere allo stimolo specifico.
pH – responsive nanoparticles
Per quanto riguarda gli stimoli specifici si parla del pH. I sistemi sensibili al pH sono tra quelli più
utilizzati in ricerca. Osservando la letteratura scientifica si troveranno diversi sistemi di particelle
sensibili alle condizioni di pH. Questi sistemi in genere sono stabili al pH fisiologico e si modificano
quando sono esposti a cambiamenti di pH, innalzamenti o abbassamenti dipende dalla struttura
del polimero. Quindi quando il pH si modifica, rispetto al pH fisiologico (che è di 7.4) si hanno delle
modifiche nella struttura del polimero che portano alla disgregazione della particella.
12
Furlotti/Scalfaro
11 Bionanotecnologie (Mattu)
17/03/2022
Si può ad esempio sfruttare la differenza di pH nel tratto gastrointestinale rispetto allo stomaco.
Quindi ad esempio i sistemi per rilascio dei farmaci introdotti per via orale sfruttano delle
variazioni di pH che si hanno tra lo stomaco (acido di 1-3) e il pH dell'intestino (6-8). Esistono dei
sistemi per via orale che sono stabili nelle condizioni di pH dello stomaco e che si destabilizzano
quando il pH si alza e si passa al pH dell'intestino più alto. Non si vuole che il farmaco sia rilasciato
nello stomaco dove verrebbe degradato per via delle condizioni acide, ma si vuole il rilascio
nell'intestino, che è molto vascolarizzato: il farmaco verrà assorbito dai vasi sanguigni ed entrerà
in circolo. Non si vuole il rilascio nello stomaco.
Perciò scegliendo opportunamente la struttura del polimero si riesce a controllare la sensibilità al
pH, cioè la reazione che il polimero ha al pH all'interno di specifici range di pH stesso. Non è detto
che la particella si disgreghi passando da 7.4 ad un altro pH, ma è possibile che la particella si
disgreghi passando dal pH 3 al pH 7.
Quindi le condizioni di pH che inducono la disgregazione della particella si decidono scegliendo con
quali gruppi funzionali modificare la particella o quali gruppi inserire nel polimero.
È poi possibile sfruttare condizioni patologiche, ad esempio le variazioni di pH nei tessuti tumorali.
Normalmente il pH nell'organismo è di 7.4 mentre nei tumori e nei tessuti con elevata
proliferazione batterica hanno valori di pH bassi (tra 5-6.5). Perciò si sfruttano le condizioni di pH
più acido per attivare il rilascio in queste specifiche condizioni.
Le pastiglie spesso sono una struttura in cui è possibile avere delle strutture nano che compattano
più microstrutture e che quando la pastiglia si disgrega queste vengano rilasciate. Infatti le
pastiglie sono fatte per proteggere il farmaco al pH dello stomaco e favorire il rilascio intestinale.
13
Furlotti/Scalfaro
11 Bionanotecnologie (Mattu)
17/03/2022
A livello della stessa cellula il pH cambia nei vari compartimenti, ad esempio all'esterno della
cellula si può trovare un pH di 7.4, mentre dentro nei compartimenti cellulari il pH diventa più
acido.
Quindi quando le nano particelle entrano all'interno della
cellula vengono inglobate all'interno della membrana cellulare.
Perciò all'interno della cellula si avrà la membrana cellulare che
si è ripiegata e ha inglobato la particella (si trova all'interno
viola nella membrana azzurra). La particella si trova all'interno
di endosomi, che derivano dal ripiegamento della membrana
cellulare. Gli endosomi hanno un pH acido rispetto a quello
all'esterno della cellula e tendono a degradare quello che portano
all'interno. Man mano che l’endosoma si muove all'interno della cellula
questo matura e forma quello che si chiama un lisosoma. Nel lisosoma
il pH è ancora più acido rispetto a quello dell’endosoma, poiché il
lisosoma sta cercando di degradare quello che si trova al suo interno.
Una volta che il lisosoma ha degradato ciò che c'era al suo interno
ritorna alla membrana e “sputa” fuori il contenuto ormai degradato
(freccia azzurra).
Perciò il lisosoma è l'ultima barriera che la particella deve superare per rilasciare il farmaco dentro
nella cellula. Si possono sfruttare i diversi pH all'interno degli endosomi e dei lisosomi per indurre
il rilascio del farmaco.
Riassumendo:
-
-
È possibile avere variazioni di pH fra i tessuti normali a seconda del compartimento
considerato.
Ad esempio stomaco-intestino sani; è possibile avere diversi tipi di pH fra tessuti patologici
e i tessuti normali come ad esempio tessuto normale vs tumore o tessuto normale vs
tessuto con proliferazione batterica.
Infine è possibile avere diversi pH tra compartimenti cellulari, perciò fra l'esterno della
cellula e le sue componenti interni quali endosomi e lisosomi.
DOMANDA: Se la nano particella viene poi sputata fuori il rilascio di farmaco sta fuori dalla cellula?
RISPOSTA: Si vedrà che gli endosomi e i lisosomi sono un'altra barriera all'effettivo funzionamento
delle particelle. Ci sono delle strategie per “scappare” dagli endosomi; si parla di endosomal
escape. Quando si disegnano delle particelle che sono in grado di rompere l’endosoma e quindi di
uscire senza venire riciclate sulla membrana cellulare, c'è attenzione al fatto che la particella non
deve venire “sputata fuori”.
Si sfruttano quindi i polimeri che siano in grado di accettare o cedere protoni a seconda delle
condizioni di pH.
Si possono, per esempio, utilizzare polimeri che presentino gruppi acidi (gruppi carbossilici), i quali
accettano protoni a pH basso e quindi si stabilizzano, mentre si deprotonano quando il pH si alza e
quindi si destabilizzano.
14
Furlotti/Scalfaro
11 Bionanotecnologie (Mattu)
17/03/2022
Oppure è possibile utilizzare polimeri che presentino gruppi basici, ad esempio i gruppi amminici,
che si protonano (acquistano protoni a basso pH e si destabilizzano, poiché acquistano una carica
positiva).
Quindi i gruppi acidi hanno una carica negativa, acquistano protoni e la carica si neutralizza in
questo modo il polimero si stabilizza. Quando perdono protoni ritornano carichi negativamente e
quindi cariche negative si respingono e la struttura si destabilizza.
I gruppi basici invece acquistano protoni, si caricano positivamente; cariche positive si respingono
e quindi la struttura si destabilizza.
È poi possibile scegliere dei legami pH sensibili che si rompono in specifiche condizioni di pH e
sono ad esempio legami che contengono gruppi ortoesteri, acetali e idrazone. Questi gruppi si
rompono in specifiche condizioni di pH causando il rilascio del farmaco o la disgregazione della
particella.
ESEMPIO: Nano particella pH sensibile per il rilascio nel tratto gastrointestinale
Si vuole che il farmaco non venga rilasciato nello stomaco dove il pH è acido, ma che venga
rilasciato nell'intestino dove si alza il pH. Si possono sfruttare dei polimeri che contengono ad
esempio dei gruppi acidi (gruppi carbossilici): il gruppo carbossilico presenta carica negativa. A
bassi pH il gruppo carbossilico
accetta protoni:
COO- è carico negativamente e
tende ad accettare protoni a bassi
pH, quindi la carica negativa si
neutralizza e il gruppo si stabilizza.
Perciò si ha una struttura stabile
quando il gruppo acquista protoni.
Se però si alza il pH, il gruppo cede
i protoni e ritorna caricato
negativamente, quindi più gruppi
carbossilici saranno vicini e carichi
negativamente, si respingono e la
struttura polimerica si destabilizza
a causa della repulsione tra cariche. Quindi sono realizzate delle particelle utilizzando un
copolimero PCL-PEG a blocchi.
Quindi si formerà una struttura simile a quella descritta prima in cui c'è il polimero al centro e il
PEG si mette sulla superficie. Oltre al PEG ci sono delle catene laterali di PMAA, acido
polimetacrilico, un polimero che contiene gruppi carbossilici. Questo polimero al pH dello stomaco
acquisterà protoni e tenderà quindi ad avere una carica neutra. Va quindi a disporsi tutto intorno
alla particella.
15
Furlotti/Scalfaro
11 Bionanotecnologie (Mattu)
17/03/2022
Quindi il PCL si troverà al centro (rosa); il PEG si mette in superficie
(azzurro), in più si avrà il PMAA. Quando il gruppo carbossilico ha
la carica negativa, questo gruppo tenderà ad andare verso la parte
esterna (viola). A pH basso, ad esempio nello stomaco, i gruppi
hanno cariche negative (cariche meno viola). Questi gruppi
accetteranno protoni, si neutralizzano e non si avrà più la
repulsione fra cariche, quindi il polimero viola si stabilizza e si
passa ad una configurazione in cui le particelle stabili si ripiegano
sulla superficie della particella formando un rivestimento che
rallenta il rilascio del farmaco. Perciò in condizioni acide le catene
di PMAA si protonano e perdono la carica negativa e
tendono a ripiegarsi verso la superficie creando un
rivestimento protettivo.
Quando il pH si solleva tornando a 7.4, la particella ritorna
alla configurazione vista inizialmente. I gruppi carbossilici
del PMAA si deprotonano, cedono protoni, quindi il gruppo
si carica negativamente e il rivestimento si apre di nuovo
per la repulsione tra cariche negative. Adesso la struttura della particella è aperta e quindi
consente la fuoriuscita nel farmaco in questa specifica condizione di pH, mentre la rallenta
nell’altra.
Si riesce quindi a sfruttare la capacità del polimero di acquistare o cedere protoni a seconda del pH
per stabilizzare o destabilizzare la struttura, quindi rallentare o accelerare il rilascio.
16
Ferraro/Memeo
12 Bionanotecnologie (Mattu)
17/03/2022
Smart polymer nanoparticles parte I
pH-responsive nanoparticles – GI release
Esistono nanoparticelle in grado di rispondere al pH, ne sono un esempio le particelle disegnate
per reagire agli stimoli di pH che ricevono in tratti differenti del tratto gastrointestinale in cui si
passa da un pH acido, nello stomaco, ad un pH che diventa più basico nell’intestino. Lo scopo del
rilascio orale dei farmaci è farli passare indenni per lo stomaco e farli arrivare all’intestino dove si
vuole che il principio attivo sia rilasciato per essere assorbito dai vasi sanguigni da cui in farmaco
entra in circolo. (L’obbiettivo è passare dallo stomaco senza essere danneggiato ed arrivare il più
possibile intatto nell’intestino).
Il polimero rappresentato è formato da una
porzione idrofobica di policaprolattone, una
porzione più idrofilica di PEG e presenta come
catene laterali delle catene polimeriche con
terminazioni acide di gruppi carbossilici. Questi
ultimi sono carichi negativamente e acquistano
protoni in specifiche condizioni di pH quindi la
carica totale si neutralizza, in particolare questo
accade a pH acido. Nello stomaco il pH è acido
quindi la struttura presenta gruppi carbossilici
che acquistano protoni e sulla superficie della
particella si ripiegano le catene formando un
extra strato di protezione sulla superficie della particella che rallenta il rilascio del farmaco. Non
appena la particella passa dallo stomaco all’intestino il pH si solleva, il gruppo carbossilico si
deprotona tornando con carica negativa, le catene si respingono tornando a distendersi e così
facendo liberano la particella dallo strato di protezione e il farmaco può uscire liberamente dalla
particella.
Il sistema sfrutta le cariche negative del gruppo carbossilico in grado di stabilizzarsi a pH acido
proteggendo la particella e destabilizzarsi quando il pH si risolleva deproteggendo la superficie
della particella e accelerando il rilascio, quindi il sistema rallenta e accelera il rilascio. (sbagliato
dire che il sistema si accende e si spegne). Il farmaco è disperso in una matrice polimerica e il
rilascio dipende quindi dai meccanismi di diffusione, il farmaco si diffonde quindi verso l’esterno
seguendo la direzione da dove ce ne è di più a dove ce ne è di meno. Questa diffusione viene solo
rallentata quando si aggiunge un altro strato sulla superficie, infatti la diffusione avviene
comunque ma c’è solo un altro ostacolo da affrontare; quindi, nel rilascio diffusivo è corretto
parlare di rallentamento e accelerazione del rilascio.
Ferraro/Memeo
12 Bionanotecnologie (Mattu)
17/03/2022
Osservando i profili di rilascio
del farmaco in vitro si nota
cosa cambia al variare del
pH. A pH 3 il rilascio del 40%
si ottiene circa con 8 ore,
aumentando il pH il rilascio è
più veloce, infatti con lo
stesso tempo si ottiene l’80%
del rilascio quindi viene
rilasciato il doppio del farmaco rispetto a pH 3. Questo perché a pH 7,4 non c’è lo strato di
protezione quindi il rilascio è accelerato. Però è sbagliato dire che a pH 3 il rilascio equivale a 0.
Il rilascio diffusivo non è facilmente controllabile, difficile da annullare.
pH-responsive nanoparticles- Intra-tumor release
I polimeri pH sensibili generalmente presentano gruppi acidi o gruppi basici, segue un esempio di
polimero avente gruppi amminici NH2 che acquistano protoni a pH acido e si caricano
positivamente; quindi, il gruppo diventa NH3+ con carica netta positiva. Le cariche positive si
respingono tra di loro quindi il polimero destabilizza a pH acido, mentre il caso precedente si
stabilizzava a pH acido e destabilizzava a pH più alti.
Esempio: Polimero con parte idrofobica e parte idrofilica
che trasporta un farmaco antitumorale chiamato
doxorubicina, nanoparticella che si destabilizza a pH
acido che caratterizza il tumore e rilascia il farmaco
maggiormente in quelle condizioni di pH.
Esaminando il profilo di rilascio del farmaco, a pH 7.4
abbiamo circa il 20 % di farmaco rilasciato in 24 ore circa,
mentre nelle condizioni di pH acido 5.5 c’è rilascio superiore
all’80% nello stesso tempo. Il sistema si disassembla a pH
acido perché le cariche positive si respingono e il farmaco
viene rilasciato.
Ferraro/Memeo
12 Bionanotecnologie (Mattu)
17/03/2022
Parlando dei sistemi che rispondono agli stimoli si è detto che il polimero può interamente
disassemblarsi, quindi il polimero si destabilizza e la struttura cambia, oppure è possibile usare dei
polimeri che rispondono agli stimoli per rivestire altre strutture.
pH-responsive polymer shell for intracellular release
Esempio di particella inorganica di ossido di silicio che presenta dei canali nanodimensionati in cui
è possibile inserire una grande quantità di farmaco, il problema di questi canali è sono facili da
caricare di farmaci, ma allo stesso tempo il farmaco viene poi rilasciato molto velocemente quindi
è necessario rallentare la fuoriuscita del farmaco dai canali e accelerarla in determinate condizioni
ad esempio dentro la cellula. Pertanto; si applica un rivestimento sulla particella utilizzando un
polimero pH sensibile, in particolari condizioni di pH non sarà tutta la particella a degradarsi ma si
romperà soltanto il rivestimento esterno e la particella sarà liberata e il rilascio del farmaco dai
canali sarà accelerato.
Si applica un rivestimento di protezione che rallenta il rilascio, ad un certo punto, in specifiche
condizioni di pH, il rivestimento si disassembla, rimane solo la particella e il farmaco può uscire dai
canali quindi si ottiene l’accelerazione del rilascio in particolari condizioni di pH. In questo caso le
condizioni sono quelle di un ambiente ipercellullare, perché all’interno della callula il pH varia in
base ai dipartimenti della cellula che consideriamo.
Dall’immagine si vede la particella che entra nella cellula, viene inglobata all’interno di una
porzione della membrana cellulare formando una struttura chiamata endosoma che presenta un
pH acido quindi il rivestimento inizia a
degradare e il farmaco viene rilasciato. In
seguito, l’endosoma matura e diventa un
lisosoma, il pH incrementa l’acidità e il
farmaco continua ad essere rilasciato fino
a quando la particella non viene espulsa
dalla cellula priva del rivestimento e
costituita esclusivamente dalla sua parte
inorganica. In questo caso solo il
rivestimento è pH sensibile e si rimuove
solo in specifiche condizioni come dentro
gli endosomi, il farmaco viene qui rilasciato
e la particella inorganica viene eliminata.
Domanda: Perché il lisosoma ha pH più acido dell’endosoma? Perché il suo scopo è quello di
degradare le sostanze presenti dentro l’endosoma, quando quest’ultimo decide di degradare le
sostanze contenute al suo interno diventa un lisosoma e riduce il suo pH per favorire la
Ferraro/Memeo
12 Bionanotecnologie (Mattu)
17/03/2022
degradazione. (Vedremo in seguito che le nanoparticelle devono arrivare intatte dentro la cellula e
poter uscire dall’endosoma per essere degradate ed eliminate).
COMMENTO IMMAGINE: dentro la cellula, siccome la particella viene trasportata e degradata il
suo contenuto che è un farmaco
fluorescente, visibile in rosso, si accumula
all’interno della cellula. Mentre usando
soltanto il farmaco senza particella la
penetrazione nella zona intracellulare è
limitata, questo dimostra la capacità di
trasportare il farmaco dentro la cellula e
accelerare il rilascio del farmaco sfruttando
la degradazione).
Esempio che rappresenta il caso in cui si lega il farmaco chimicamente ed è il legame farmacoparticella ad essere pH sensibile. Invece di mettere il farmaco all’interno del polimero e avere
rilascio diffusivo, il farmaco viene collocato sulla superficie di un trasportatore e ad essa legato con
un legame pH sensibile.
Fino a quando non si rompe il legame il farmaco
non viene rilasciato, legare i farmaci alla particella
permette un miglior controllo del profilo di rilascio.
Il rilascio a pH 7.4 è meno del 10% mentre
abbassando il pH si arriva al 100 % a pH 5.3;
pertanto, legando il farmaco ad una particella con
legame pH sensibile, alle condizioni di pH in cui il
legame si rompe si ha il rilascio completo, rilascio
on. Nelle condizioni di pH in cui il legame è stabile
il rilascio è off. (Rilascio di tipo on/off)
In questo esempio il farmaco è la doxorubicina che viene
legata ad una nanoparticella d’oro e il legame chimico
presenta un gruppo idrazone pertanto diventa instabile a
pH acido quindi il farmaco si stacca dalla particella. Unico
difetto è che quando andiamo a legare chimicamente il
farmaco si altera la struttura, ogni volta che si fa della
chimica sulle molecole del farmaco si può potenzialmente
alterare le sue caratteristiche rendendolo inattivo.
Questo vi permette un ottimo controllo del profilo di rilascio ma attenzione a non danneggiare il
farmaco.
Sintesi, nanoparticelle costituite da polimeri pH sensibili:
-
Sono le maggiormente utilizzate
Possiamo usare polimeri pH sensibili che presentano gruppi acidi o basici che caricandosi in
diverse condizioni di pH destabilizzano la struttura perdendo l’integrità della particella che
rilascia il farmaco.
Ferraro/Memeo
-
12 Bionanotecnologie (Mattu)
17/03/2022
Rivestimenti di altre strutture
Legami chimici pH sensibili che si destabilizzano in specifiche condizioni di pH in cui avverrà
il rilascio. Miglior controllo di diffusione ma potenziale degradazione/inattivazione del
farmaco.
Smart polymer nanoparticles parte II
Nanoparticelle intelligenti sensibili alla concentrazione di enzimi e alle condizioni ossido-riduttive
dell’ambiente in cui vogliamo attivare il rilascio.
Nanoparticelle sensibili agli enzimi:
Ci sono alcuni enzimi presenti in siti patologici rispetto al tessuto in condizioni normali, ad
esempio, in alcuni tipi di tumori, vi sono enzimi che degradano la matrice extracellulare creando
spazio alle cellule tumorali, altamente proliferanti, e consentendo loro di staccarsi e spostarsi
verso altri siti. Nel microambiente tumorale la presenza degli enzimi che degradano la matrice
extracellulare è di supporto alle stesse cellule tumorali poiché consente solo di sopravvivere e
metastatizzare in altri siti. I polimeri che presentano sensibilità alla concentrazione degli enzimi
possiedono al loro interno delle sequenze che sono substrati per gli enzimi. Ad esempio, nella
catena polimerica degli enzimi che degradano la matrice extracellulare, è presente una sequenza
che viene degradata dallo specifico enzima quindi arrivando nel microambiente la sequenza verrà
digerita, il polimero perderà di integrità e il farmaco verrà rilasciato.
1) Sequenze che sono substrati dell’enzima nella catena polimerica.
2) Si lega il farmaco alla particella usando un linker all’interno del quale è presente una
sequenza degradabile dall’enzima. Quando quest’ultimo arriva degrada il linker e il
farmaco viene rilasciato perché separato dalla particella che lo trasporta.
Esempio con enzimi metalloproteasi della matrice MMP, ne esistono di diversi tipi in questo caso
siamo interessati all’enzima MMP-2 poiché sono presenti in grandi quantità nelle metastasi
polmonari di alcuni tumori. Si disegna un vettore multistadio che sfrutta due stadi di rilascio, il
primo è caratterizzato da una microparticella a forma di disco con pori nanometrici. È stato
Ferraro/Memeo
12 Bionanotecnologie (Mattu)
17/03/2022
dimostrato che la forma discoidale permette alle particelle di accumularsi nei microvasi sanguigni
polmonari quindi, una volta iniettata, tende a rimanere incastrata nei polmoni.
-
Primo stadio di rilascio: trasporto del farmaco verso i polmoni, zona in cui è localizzata
un’alta concentrazione di enzima MMP-2.
Il secondo stadio di rilascio è una nanoparticella polimerica attaccata sopra la
microparticella mediante un linker al cui interno è presente una sequenza peptidica
degradata dall’enzima MMP-2. Quando in sistema arriva vicino alle metastasi gli enzimi
romperanno il legame che tiene la nanoparticella attaccata sulla superficie della
microparticella; quindi le microparticelle vengono rilasciate e portate all’interno delle
cellule tumorali.
Questo sistema a doppio stadio permette di aumentare la capacità del sistema di riconoscere le
cellule tumorali presenti nei polmoni.
Nel diagramma sottostante sono riportate le
curve dei rilasci senza utilizzare l’enzima 40%
(curva in verde). Aggiungendo l’enzima
(curva in rosso) il rilascio viene accelerato
arrivando all’80%. Negli animali vengono
iniettate le nanoparticelle di controllo dentro
le cellule tumorali situate nel polmone del
topo, successivamente si analizzano le cellule
polmonari utilizzando il citofluorimentro che consente di separare le cellule sane da quelle
tumorali. In seguito, si osserva la concentrazione della
nanoparticella, nel sistema non sensibile all’enzima (MSV)
dentro la massa tumorale ci sono il 46,8% di cellule che
presentano le nanoparticelle al proprio interno. Usando
invece il sistema enzima sensibile (ESMSV) la
concentrazione raggiunge il 64,6%. Questo sistema
aumenta le particelle libere e la probabilità che le nanoparticelle entrino nelle cellule tumorali
cresce rispetto al sistema senza sensibilità enzimatica. Gli enzimi che ci interessano non sono mai
esclusivi del sito tumorale, ma sono presenti anche in altri siti dell’organismo, come il fegato. Se
viene somministrata una nanoparticella nel sangue questa passerà per il fegato e se è enzima
sensibile occorre considerare questo aspetto come nel seguente esempio.
Ferraro/Memeo
12 Bionanotecnologie (Mattu)
17/03/2022
Nanoparticella di gelatina, componente della matrice extracellulare quindi substrato per gli enzimi
che degradano la matrice. Gli enzimi MMP degradano la gelatina quindi una nanoparticella di
questo tipo viene degradata da questi enzimi portando al rilascio di farmaco. Serve una strategia
per proteggere la nanoparticella nel passaggio attraverso il fegato che contiene a sua volta gli
enzimi MMP.
Si sfruttano le cariche positive della gelatina
che in specifiche condizioni di pH è un
policatione. Il farmaco è la doxorubicina e si
trova intrappolata tra le doppie eliche di un
DNA artificiale. (La doxorubicina è un farmaco
citotossico che funziona a livello del nucleo
della cellula, inserendosi tra la doppia elica del
DNA e inibendone la replicazione. Il DNA non si
può replicare e la cellula muore) In questo caso
si sfrutta la capacità della doxorubicina di
inserirsi nella doppia elica di DNA con carica
negativa che si lega al polimero di gelatina con
carica positiva formando una particella
chiamata NANOCOMPLESSO (CPX1). Un
nanocomplesso si forma quando le cariche del
polimero interagiscono con le cariche opposte
del farmaco.
Il CPX1 ha carica positiva perché la gelatina ingloba al suo interno il DNA. Questi complessi sono
degradabili dagli enzimi MMP e siccome devono passare per il fegato si applica uno strato
protettivo di alginato che presenta carica opposta rispetto alla gelatina e quindi si deposita sulla
superficie.
La nanoparticella è un complesso di gelatina
e DNA a sua volta rivestita con un
rivestimento di alginato pertanto chiamata
complesso 2 (CPX2). Il rivestimento di
alginato non è sensibile all’enzima MMP
pertanto non viene degradato, inoltre
presenta gruppi carbossilici e a questi viene
legato un linker pH sensibile che contiene
istidina. Al pH del fegato il linker è stabile
quindi nel fegato tiene insieme le catene di
alginato e il rivestimento rimane stabile sulla
superficie del complesso 1. Per ciò nel fegato
la particella di gelatina è protetta e gli enzimi
non la possono degradare. Arrivando nel
tumore il pH si abbassa, il rivestimento di
alginato si destabilizza, viene liberata la particella di gelatina a sua volta degradata dagli enzimi
presenti nel microambiente tumorale consentendo il rilascio di farmaco. Rimane un DNA estraneo
Ferraro/Memeo
12 Bionanotecnologie (Mattu)
17/03/2022
e della cellula sono presenti numerosi enzimi che degradano in DNA estraneo chiamati dnasi,
liberando la doxorubicina intrappolata nella catena. In questo esempio si crea una struttura
enzima sensibile protetta in particolari condizioni di pH, passa inalterata attraverso il fegato e si
destabilizza nella zona tumorale dove il farmaco viene rilasciato.
Risultati grafici:
Con il CPX1 di gelatina il farmaco
va principalmente nel fegato
quindi la particella non trasporta
molto farmaco nel tumore. Con il
CPX2 molto più farmaco arriva nel
tumore e meno nel fegato che
viene quindi protetto.
Riassunto aspetti principali per nanoparticelle sensibili agli enzimi:
-
-
Rispondono alla concentrazione degli enzimi che distingue sito patologico da sito normale.
Gli stessi enzimi presenti nel sito patologico possono essere anche presenti in altri siti
come avviene nel caso del fegato, quindi, bisogna disegnare le particelle al fine che non
vengano degradate negli organi sani.
Degradazione indesiderata nei siti sani.
Redox-sensitive nanoparticles
Particella intelligente che risponde alla concertazione di specie ossidanti o riducenti nel sito
patologico. Nei tessuti normali all’interno e all’esterno della cellula ci sono diverse concertazioni di
specie ossidanti e riducenti, questo genera un potenziale ossidativo. In particolare, dentro le
cellule c’è una maggiore concentrazione di glutatione che è una specie riducente, abbreviata con
la sigla GSH. Questo accade perché il GSH riduce lo stress ossidativo che le cellule subiscono.
Le cellule tumorali vivono in ambienti particolarmente stressanti perché sottoposte ad attacco da
parte di specie ossidanti come i radicali liberi o le altre specie reattive dell’ossigeno. Per
proteggersi utilizzano agenti riducenti come, ad esempio, il GSH che riduce l’azione delle specie
ossidative e passa dalla forma ridotta alla forma ossidata. Il glutatione agisce sulla specie
ossidativa riducendola, mentre si ossida diventando GSSG (glutatione disulfide). Quando la cellula
Ferraro/Memeo
12 Bionanotecnologie (Mattu)
17/03/2022
viene attaccata dalle specie ossidanti il GSH interviene, protegge la cellula e si trasforma in GSSG;
pertanto, il rapporto di concentrazione tra GSH e GSSG fornisce l’informazione di quando è sana la
cellula.
-
-
Se il rapporto GSH/GSSG è basso significa che il denominatore è alto quindi la
concentrazione di GSSG è maggiore quindi molto GSH si è ossidato per proteggere la cellula
che quindi si trova in condizione di alto stress ossidativo.
Se invece il rapporto GSH/GSSG è alto significa che il numeratore è basso quindi più GSH si
trova nella sua forma ridotta, pertanto, non si sta ossidando. In conclusione, lo stress
ossidativo a cui la cellula è sottoposta è basso.
GSH ha funzione di protezione della cellula e in particolare la sua concentrazione all’interno è circa
2-10 mM mentre all’esterno è un ordine di grandezza inferiore e vale circa 2-20 µM. Nell’ambiente
tumorale la concentrazione di GSH è ancora più alta perché la cellula è maggiormente sottoposta a
stress e produce GSH per difendersi.
Il GSH può essere sfruttato per attivare un rilascio
inserendo nella struttura della particella un legame
ridotto dal GSH come il legame disulfide (S-S).
Inserendo nel polimero questo legame riuscendo a
portare la particella dentro la cellula il GSH presente
all’interno tenderà a ridurre il legame creandone la
rottura e causando il rilascio del farmaco. La riduzione
di questo legame da parte del GSH attiva il rilascio del
farmaco all’interno della cellula.
Le particelle redox sensibili presentano un legame
disulfide ridotto dal GSH e devono essere trasportate
all’interno della cellula prima che avvenga la reazione redox, pertanto, queste particelle sono
anche in grado di fare targeting attivo, cioè hanno la capacità di riconoscere i recettori presenti
sulla cellula bersaglio in cui vengono inserite per poi attivare i meccanismi di rilascio triggerati dal
GSH.
Esempio di particella che è una sorta di micella costituita da una porzione idrofobica ed una
idrofilica, tra le due porzioni è inserito un link che contiene un legame disulfide, ridotto per azione
del GSH. A questo punto la parte idrofilica si staccherà da quella idrofobica e la micella perderà
stabilità a causa della separazione delle due componenti. Dentro la particella si inserisce un
farmaco, mentre sulla superficie vengono applicati acido ialuronico, che riconosce recettori
presenti nelle cellule tumorali ed è l’agente di targeting attivo. La particella viene iniettata e si
sfrutta l’effetto EPR per raggiungere la zona tumorale, in seguito l’acido ialuronico sulla superficie
interagisce con i recettori sulla cellula tumorale (arancione) permettendo alla particella di venire
Ferraro/Memeo
12 Bionanotecnologie (Mattu)
17/03/2022
trasportata all’interno in
cui la particella incontra
alta concentrazione di GSH
che riduce il legame, la
particella perde
interamente di stabilità e il
rilascio del farmaco viene
massimizzato dentro la
cellula.
Dal profilo di rilascio del farmaco è possibile osservare che usando le
particelle di controllo, formate dalla micella senza legame disulfide (HADOCA), non rilascia niente anche ad alte concentrazioni di GSH,
risultando insensibile al glutatione. La particella invece provvista del
legame ss (HA-ss-DOCA) sensibile al GSH ha un rilascio accelerato per
concentrazioni di GSH pari a quelle intracellulari (10-20 mM), mentre
non rilascia quasi nulla per concentrazioni basse di circa (10 µM) pari alla
condizione extracellulare. Questo sistema di rilascio accelera
nelle condizioni intracellulari, conclusione visibile anche
nell’esperimento in vivo dove le micelle che si rompono nelle
cellule tumorali rilasciano molto più farmaco rispetto a quelle
di controllo.
Esempio (non da ricordare) : Modalità di trasporto combinato di paclitaxel, farmaco antitumorale,
e di un farmaco a base di RNA. La struttura è simile alla precedente, l’acido ialuronico legato al PEI,
policatione che serve per complessare l’RNA e una struttura tenuta insieme dai legami disulfide. La
particella si destabilizza
dentro la cellula
rilasciando due farmaci, è
possibile quindi rilasciare
più di un farmaco
contemporaneamente
migliorando la
sopravvivenza degli
animali che presentano
crescita del tumore vicina
allo zero.
Ferraro/Memeo
12 Bionanotecnologie (Mattu)
17/03/2022
Riassunto: nanoparticelle redox sensibili
-
-
Si sfrutta la differente concentrazione di specie ossidanti o riducenti tra l’interno e
l’esterno della cellula. In questo caso si sfrutta la concentrazione di GSH che è una specie
riducente presente in grande quantità all’interno delle cellule e in proporzioni ancora
maggiori nelle cellule tumorali.
Inserendo nei polimeri sequenze che vengono ridotte per azioni del GSH il polimero si
degraderà all’interno della cellula.
È necessario trovare una giusta strategia di riconoscimento del target e trasportare la
particella dentro la cellula dove potrà degradarsi.
Esempio: Particella che risponde a due
stimoli, in questo caso GSH che presenta
gruppi amminici quindi sensibilità al pH.
Pertanto, la particella può essere sfruttata per
degradarsi all’interno della cellula e rilasciare
farmaci per effetto del pH.
In questo caso si utilizza un siRNA, farmaco a
RNA, che interagisce con il gruppo amminico
carico positivamente. La catena carica
positivamente e il farmaco a RNA con cariche
negative, il farmaco rimane intrappolato per
effetto dell’interazione tra cariche. L’altra
porzione del polimero idrofobico e per legare
le due parti si inserisce un legame disulfide.
Nella cellula si romperà quest’ultimo legame,
destabilizzando la micella e causando la
fuoriuscita del farmaco inserito nella parte idrofobica. Il gruppo amminico si caricherà spingendo
via l’RNA portando al contemporaneo rilascio di RNA dovuto al pH e il rilascio del farmaco
idrofobico dovuto alla rottura del legame disulfide.
Serio/Palladino
13 Bionanotecnologie (Ciardelli)
23/03/2021
I POLIMERI
Argomenti
I polimeri sono dei materiali che rivestono un ruolo importante nel campo delle
bionanotecnologie. Gli argomenti che verranno trattati sono:
•
•
•
caratteristiche generali dei polimeri: cosa sono i polimeri e come vengono denominati;
reazioni di polimerizzazione: come vengono sintetizzati i polimeri, quali sono le reazioni
che portano all’ottenimento di materiali polimerici;
valutazione delle caratteristiche meccaniche nei substrati polimerici (cenni): le proprietà
meccaniche dei materiali sono una proprietà fondamentale nella progettazione di sistemi
che si devono interfacciare con l’ambiente cellulare. Le cellule possiedono dei
meccanosensori, attraverso i quali sono capaci di “sentire” le proprietà meccaniche dei
dispositivi con cui cono a contatto.
Definizione
Il nome “polimeri” deriva dal greco “polymerḗs”, che significa “molte parti”. Sono sostanze che
possono essere sia di origine organica (la più grande famiglia di polimeri) che inorganica (in
particolare i siliconi). Ciò che caratterizza un materiale organico rispetto ad uno inorganico è la
presenza di atomi di carbonio. I materiali polimerici possono essere di origine sintetica, cioè
realizzati artificialmente tramite reazioni di polimerizzazione, oppure di origine naturale, i
cosiddetti biopolimeri (ad esempio proteine, polisaccaridi, acidi nucleici).
La caratteristica dei polimeri è quella di essere composti da un gran numero di unità ripetitive
che, secondo IUPAC1, sono dette unità ripetenti costituzionali (CRU, Constitutional Repeating
Unit), o più comunemente unità monomeriche o monomeri. Per i polimeri si vedrà che spesso si
tende a preferire una nomenclatura meno standardizzata, ma più tradizionale. Un monomero è
una sostanza che, sottoposta ad una reazione di polimerizzazione, dà il polimero.
Nelle reazioni di polimerizzazione si formano dei legami chimici in genere covalenti che tengono
insieme i monomeri in una lunga catena, che in genere è una catena lineare, ma può essere anche
ramificata o reticolata. Questa estrema variabilità della struttura chimica dei polimeri sia a livello
di monomeri utilizzabili per sintetizzarli, sia a livello di concatenamento dei monomeri nel
polimero finale, permette di produrre una quantità di materiali con una fortissima ampiezza di
possibili settori applicativi.
1
ente che definisce le regole per la nomenclatura di tutti i composti chimici, univoca e riconosciuta da tutti
1
Serio/Palladino
13 Bionanotecnologie (Ciardelli)
23/03/2021
Principi della chimica dei polimeri
La singola molecola che costituisce un polimero è molto grande, tanto da essere chiamata
macromolecola. Queste lunghe molecole sono come un treno costituito da tanti vagoni e questi
vagoni sono proprio le unità monomeriche tra loro concatenate. Indicando questi monomeri con
una lettera B, i polimeri sono una serie di vagoni tutti uguali B. All’inizio e alla fine del convoglio ci
sono delle particolarità, i gruppi terminali A (sia in cima che in fondo alla catena), che differiscono
un po’ dall’unità monomerica.
ABBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBA
A = GRUPPO TERMINALE
B = UNITA’ STRUTTURALE (monomero)
Le unità B sono tenute insieme da legami covalenti.
La maggior parte dei polimeri è di natura organica, cioè contiene carbonio in catena, pochi sono
inorganici. Esistono, anche se pochi, polimeri di natura mista, che contengono sia sostanze
organiche che inorganiche.
Classificazione
I polimeri sono costituiti da molecole molto grandi, che quindi hanno un alto peso molecolare,
quello che verrà successivamente chiamato alto grado di polimerizzazione. Avendo un monomero
A e prendendone n moli (o n molecole) si ottiene il polimero in cui ci sono n unità di A in catena: il
grado di polimerizzazione è dato dal valore di n. Il peso molecolare del polimero è uguale al peso
molecolare di A moltiplicato per n, tato più alto è n tato più alto è il peso molecolare.
Quando nella macromolecola ci sono poche unità monomeriche, allora si parla di oligomeri. Le
macromolecole non sono molto lunghe e il peso molecolare è abbastanza alto ma non troppo
perché n è comunque minore di 10.
In maniera molto approssimata:
•
•
•
se n è compreso tra 10 e 100 si parla bassi polimeri (polimeri piccoli);
se n è compreso tra 100 e 1000 si parla di medi polimeri;
con n maggiore di 1000 si parla di alti polimeri.
Le unità strutturali sono concatenate tra loro in
maniera diversa:
•
•
•
polimero lineare: i monomeri sono uno
accanto all’altro;
polimero ramificato: dalla catena principale si
dipartono delle ramificazioni;
polimero reticolato: polimeri concatenati a
rete, le catene lunghe sono tra loro collegate
da segmenti più corti trasversali.
2
Serio/Palladino
13 Bionanotecnologie (Ciardelli)
23/03/2021
Copolimeri
Se il polimero è la concatenazione di unità monomeriche B tutte uguali fra loro si parla di
omopolimeri.
-BBBBBBBBBBBBBBBBBBBBBBBBBBBBBÈ possibile che la catena macromolecolare sia costituita da monomeri di natura diversa, ad
esempio B e A. Questi tipi di polimeri si chiamano copolimeri e sono prodotti per polimerizzazione
in genere (ma non sempre) simultanea di due o più monomeri.
-BBBBAAAAAAAABBABBBAAAAAAAABBQuesto introduce un elemento di variabilità in più, c’è la possibilità che i monomeri siano
distribuiti lungo la catena con delle regole statistiche diverse:
•
•
•
•
alternato: il copolimero è costituito da unità A e B alternate tra loro;
statistico lineare: A e B sono distribuiti lungo la catena con distribuzione statistica casuale
(random), lineare perché è presente solo una catena;
a blocchi: ci sono lunghe catene di A seguiti da blocchi di B, se i blocchi sono molto lunghi
sembrano delle miscele di omo-A e omo-B;
ad innesto (graft): c’è una catena principale di un monomero B con ramificazioni costituite
di A.
Formule
Quando si scrive la formula di un polimero, in genere si scrivono solo le sue unità monomeriche,
trascurando i polimeri terminali perché non sono rilevanti o non si conoscono con precisione. Ad
esempio, il polietilene è ottenuto da un monomero che si chiama etilene (alchene con 2 atomi di
carbonio): (-CH2-CH2-)n, dove n è il numero di unità ripetenti in catena, detto anche grado di
polimerizzazione.
3
Serio/Palladino
13 Bionanotecnologie (Ciardelli)
23/03/2021
Nomenclatura
Come nei composti chimici organici e non, bisogna dare un nome anche ai polimeri. Esistono vari
metodi, alcuni molto tradizionali e comuni, come la bakelite (resina fenolo-formaldeide) e il nylon.
La nomenclatura corrente più utilizzata e comune è quella di dare al polimero il nome del
monomero preceduto dal prefisso poli-, come nell’esempio precedente del polietilene. Se il
monomero fosse l’acido acrilico, si avrebbe il poli(acido acrilico).
La nomenclatura IUPAC, invece, utilizza il nome dall’unità che si ripete n volte: ad esempio, nel
polietilene l’unità che si ripete non è tanto -CH2-CH2-, ma solo -CH2-; si può scrivere quindi come
(-CH2-)m, dove m=2n. La IUAPAC, dunque, chiama questo polimero polimetilene, dove metilene è il
gruppo -CH2-.
Lista di confronto tra il nome corrente e
il nome IUPAC. Ci sono due differenze:
•
•
se l’unità ripetente del
monomero è simmetrica (come
nel caso del polietilene), la IUPAC
fa riferimento all’unità vera che
si ripete;
al monomero viene dato il nome
non convenzionale, cioè il nome
IUPAC della molecola organica
che costituisce il monomero.
Ad esempio, il polistirene è un polimero ottenuto dalla polimerizzazione
della molecola in immagine a destra, lo stirene. Lo stirene è, in realtà, un
etilene con un benzene (gruppo fenilico) al posto di un idrogeno, quindi il suo
nome IUPAC è poli(1-feniletilene).
Altro esempio, il polipropilene è ottenuto dalla polimerizzazione del
propilene, che non è altro che un etilene con un gruppo metile al posto un
idrogeno, quindi diventa poli(1-metiletilene) nella nomenclatura IUPAC.
Il nome commerciale del poli(tetrafluoroetilene) è teflon, in nomenclatura IUPAC diventa
poli(difluorometilene) perché il polimero è (-CF2-)m.
Il poliacrilonitrile diventa poli(1-cianoetilene) perché ha un gruppo C≡N.
Altri gruppi utili da sapere:
gruppo vinilico: CH2=CHgruppo acrilico: CH2-C-COOH
4
Serio/Palladino
13 Bionanotecnologie (Ciardelli)
23/03/2021
Laddove c’è un alchene come monomero (polistirene, poliisobutilene, polipropilene…) si parla
anche di poliolefine, dove olefina è un termine molto antiquato per indicare gli alcheni, che però
nella nomenclatura polimerica è stato mantenuto, questo termine può essere trovato.
Nel caso dei copolimeri si ha un elemento in più di variabilità che deve essere definito anche
tramite la nomenclatura, quindi bisogna indicare nel nome il tipo di distribuzione dei due
monomeri nel polimero. Prendendo, ad esempio, un copolimero dello stirene col metacrilato si
hanno varie possibilità:
•
•
•
•
statistico: -co- oppure stat o ran (per random), spesso usato anche quando non si hanno
informazioni sul tipo di distribuzione, esempio: poli(stirene-co-metil metacrilato);
alternato: -alt-, esempio poli(stirene-alt-metil metacrilato);
a blocchi: -block-, esempio polistirene-block-poli(metil metacrilato);
ad innesto: -graft-, esempio polistirene-graft-poli(metil metacrilato);
Negli ultimi due è ripetuto due volte poli- perché quando si ha una situazione a blocchi, poli-A e
poli-B.
Esistono anche in questo caso dei nomi commerciali comuni, come moplen = polipropilene,
nomex= nylon, mylar= film a base di poliestere, orlon = fibre acriliche.
Il polietilentereftalato (PET) è costituito da monomeri con un gruppo etilico, un gruppo estere e
acido tereftalico COOH-benzene-COOH.
5
Serio/Palladino
13 Bionanotecnologie (Ciardelli)
23/03/2021
Dimensione delle macromolecole
Si è detto che dal grado di polimerizzazione n si ricava il peso molecolare del polimero. Una
sostanza chimica normalmente ha un peso molecolare che identifica tutte le molecole di un
campione. In un campione polimerico, invece, si hanno molecole di lunghezza diversa e il peso
molecolare che si legge sull’etichetta è in realtà il valore medio dei pesi molecolari delle varie
molecole contenute all’interno, che hanno appunto lunghezze diverse. Questa caratteristica di non
unitarietà della grandezza molecolare dei polimeri è detta polidispersità e il valore che viene letto
corrisponde al valore di peso molecolare teorico di un polimero costituito da molecole della stessa
grandezza, cioè come se fosse monodisperso.
Salvo casi eccezionali, un polimero è sempre
polidisperso e quindi caratterizzato da una
distribuzione di pesi molecolari, con una propria
curva di distribuzione. Il massimo di questa
curva è il valore più vicino a quello reale della
misura. In ordinata si ha il numero di moli ni
della specie i-esima che ha un certo peso
molecolare e in ascissa si ha il valore di peso
molecolare. Dal punto di vista dell’incidenza in
peso sul peso totale del campione, la specie iesima pesa Wi, che vale ni*PMi. Ci sono varie
medie che derivano da questo tipo di
distribuzione, la più famosa delle quali è il cosiddetto peso molecolare medio numerale, che è un
numero che più si avvicina al concetto di peso molecolare che si ha per le molecole monodisperse
a basso peso molecolare.
6
Vecchio/Zagaria
14. BIONANO (Ciardelli)
24/03/2022
Nella lezione scorsa si è visto che i materiali
polimerici hanno una distribuzione dei pesi
molecolari. Per cui il materiale polimerico
reale non ha un unico peso molecolare come
i composti a basso peso molecolare ma ha
una distribuzione come mostra la curva in
figura. Pertanto, come in tutte le
distribuzioni si possono definire delle medie.
La prima media è chiamata peso molecolare medio numerale (Mn): è la media ponderata rispetto
al numero di moli. Questo valore è quello più vicino al concetto di peso molecolare per i composti
non polimerici. Numericamente è dato dalla sommatoria del numero di moli N i, che hanno un certo
peso molecolare M i, per Mi, diviso il numero totale di moli (sommatoria di N i):
Mn può essere scritta con due espressioni diverse ricordando che la quantità in peso molecolare è
wi=NiMi. Mn viene indicata anche con la notazione cerchiata dove la sbarra indica il concetto di
media e l’indicatore n definisce il tipo di media.
Esistono altre medie che possono avere una certa importanza ma ne viene presentata solo un’altra
che è il peso molecolare medio ponderale (Mw) in cui viene fatta la stessa media ma non più rispetto
al numero di moli della specie i-esima con peso molecolare M i bensì rispetto alla quantità in peso
wi. Numericamente equivale alla sommatoria della quantità in peso wi per il peso molecolare Mi
(quindi media non più rispetto al numero di moli ma rispetto al peso), diviso il peso totale
(sommatoria di wi):
Mw può essere scritta anche come rapporto tra ∑NiMi2 diviso ∑ NiMi come se fosse una media di
ordine superiore. Nei materiali polimerici questo ha un interesse anche dal punto di vista fisico,
perché dal punto di vista grafico la differenza tra il peso molecolare M n e Mw (evidenziata dalla
freccia rossa nella curva) rende l’idea di quanto è larga la curva (di quanto è estesa la distribuzione) .
In prossimità di PM n si trova il massimo della curva (indicato dalla freccia blu) anche se in realtà non
1
Vecchio/Zagaria
14. BIONANO (Ciardelli)
24/03/2022
essendo una gaussiana simmetrica si trova leggermente verso destra. Poi si possono osservare
anche altre medie come quella viscosimmetrica PMv, centrifuga PMz e ultracentrifuga.
Ha una certa importanza anche il rapporto tra la media Mw e Mn che è il numero α, chiamato indice
(o grado) di polidispersità che dice quanto è allargata la curva e quanto sono distribuiti ampiamente
i pesi molecolari. In un polimero monodisperso idealmente α=1, ma in realtà nei polimeri reali
questo indice varia tra 1.5 < α < 2.5 (per polimeri commerciali).
Dividendo le medie numerale M n e ponderale Mw per il peso molecolare dell’unità monomerica M o
ottengo il grado di polimerizzazione.
Grado di polimerizzazione medio numerale:
Dove n indica mediamente il numero di unità polimeriche nella catena.
Grado di polimerizzazione medio ponderale:
Dove Mo è il peso molecolare dell’unità ripetente.
Scrivendo ad esempio la formula del polietilene, n non è altro che
l’Xn presente nella formula del grado di polimerizzazione medio
numerale.
Mentre se si prende Mw si ottiene il grado di polimerizzazione medio ponderale. M o è il peso
molecolare dell’unità ripetente o monomerica (attenzione non necessariamente del monomero
perché non sempre si ritrova tutto il monomero, questo si vedrà meglio dopo).
Il peso molecolare medio, quindi sia M n che Mw che la polidispersità, influenzano alcune proprietà
del polimero, quali:
▪
▪
Proprietà meccaniche;
Lavorabilità del materiale. Si immagini di voler realizzare un oggetto in materiale polimerico
come uno spruzzino o una bottiglia. Allora sarà necessario fondere il polimero (si porta allo stato
fuso) e poi spararlo in uno stampo che verrà raffreddato. Aperto lo stampo si ottiene l’oggetto.
Questo è il motivo per cui nelle bottiglie nel mezzo si può osservare una sorta di separazione, un
punto rigido dovuto al fatto che le due metà dello stampo sono state unite. Per fare ciò bisogna
fondere il polimero o in certi casi, come si fa nelle fibre tessili, si può sciogliere nel solvente e poi
filarlo. In entrambi i casi bisogna fare in modo che il polimero scorra e quindi sia abbastanza
viscoso da aderire allo stampo ma non troppo viscoso da non fluire all’interno dello stampo. Il
peso molecolare influisce sulla lavorabilità, cioè il fatto che poi con questo polimero si possano
2
Vecchio/Zagaria
▪
14. BIONANO (Ciardelli)
24/03/2022
ottenere dei prodotti finali che abbiano un’utilità e ovviamente nel caso di soluzioni influenza la
solubilità; infatti, catene molto lunghe sono più difficili da solvatare e portare in soluzione
rispetto a catene più corte.
Laddove c’è una cristallizzazione, ovvero dove il polimero ha delle zone ordinate nel cristallo il
peso molecolare medio influenza la cinetica di cristallizzazione e la percentuale di cristallinità
del polimero finale.
Come si è appena detto il peso molecolare medio ha un effetto sulle proprietà meccaniche (e sulla
viscosità in fase di lavorazione) per cui esisterà un intervallo ottimale di peso molecolare medio
(area gialla) all’interno del quale i polimeri sono più lavorabili. In genere questo intervallo va da 104
a 107 e con un intervallo più ideale che va da 20000 e 200000 g/mol. Per valori più piccoli (<104) si
hanno delle proprietà fisiche scadenti (la bottiglia non avrebbe consistente e sarebbe floscia) e per
valori troppo elevati (>107) non si riuscirebbe a realizzare la bottiglia perché il fluido sarebbe troppo
viscoso e non scorrerebbe nel macchinario.
Effetto sulle proprietà meccaniche (e sulla viscosità in fase di lavorazione) e intervallo ottimale di
peso molecolare medio:
Generalmente il peso molecolare ottimale è tra 20000 e 200000 g/mol.
Relazione proprietà-struttura
Gli aspetti dal punto di vista più molecolare che influenzano le proprietà fisico meccaniche dei
polimeri (e quindi anche la loro lavorabilità e processabilità), oltre il peso molecolare medio appena
visto, sono:
▪
Flessibilità intrinseca delle macromolecole. Indica la possibilità di rotazione attorno ai
legami C-C dello scheletro della molecola. Questo concetto probabilmente è già chiaro nei
composti a basso peso molecolare. Si prenda ad esempio l’etano C2H6 e si guardi lungo il
legame che unisce il carbonio all’altro carbonio (come indica l’occhio in figura). Questa
visione può essere rappresentata attraverso le proiezioni di Newman (disegnata a destra)
dove il cerchio è il legame chimico carbonio-carbonio. Quindi alle due estremità ci sono due
carboni, uno verso il lettore e l’altro dietro il foglio, in rosso ci sono i tre idrogeni prossimi al
punto da cui si sta osservando e quelli azzurri dietro che stanno dietro.
3
Vecchio/Zagaria
14. BIONANO (Ciardelli)
24/03/2022
Immaginando di ruotare di 60° il legame carbonio-carbonio si ottiene quella che
viene chiamata configurazione eclissata che è energeticamente sfavorita perché gli
idrogeni disegnati interferiscono tra di loro (quelli azzurri ostacolano quelli rossi).
In un polimero questo effetto è moltiplicato per tutti i legami. Ci saranno quindi delle formazioni più
stabili di altre. Per esempio la n1 completamente estesa corrisponde ad avere una configurazione
sfalsata lungo tutti i legami. Però se si ha a disposizione un’energia sufficiente ci possono essere
delle libere rotazioni che possono indurre la macromolecola o ad assumere altre conformazioni
ordinate tipo l’elica (n2) e la catena ripiegata (n3) oppure soprattutto ad elevate temperature una
situazione conformazionale che si chiama gomito statistico (random coil in inglese) che è
completamente disordinata (n4). La conformazione indica la disposizione che possono assumere le
diverse catene macromolecolari in conseguenza della rotazione lungo gli assi dei vari legami
covalenti della catena. In questo caso per semplicità si è visto come esempio il polietilene ma in
presenza di un sostituente le cose possono cambiare.
▪
Intensità delle forze intermolecolari (van der Waals, dipolo-dipolo, ponti a idrogeno), espressa
come densità di energia coesiva. Si possono avere delle interazioni di van der Waals idrofobiche
in presenza di gruppi aromatici, dipolo-dipolo se si hanno dei gruppi carichi oppure l’esempio
più classico delle interazioni dipolari sono i legami ad idrogeno (dovrebbe essere noto che αelica delle proteine è tenuta insieme proprio da legami ad idrogeno tra gli nh e i co in catena del
legame peptidico);
4
Vecchio/Zagaria
▪
▪
14. BIONANO (Ciardelli)
24/03/2022
Regolarità strutturale: avere zone ripetenti tutte uguali influenza la cristallizzabilità. Per la
regolarità strutturale sono molto importanti i concetti di costituzione e configurazione cioè
come sono disposti nello spazio i gruppi laterali;
Peso molecolare medio.
La struttura dei polimeri determina le loro proprietà:
-
Costituzione: successione degli atomi o legami di una macromolecola, ovvero com’è fatta la
molecola stessa;
Conformazione (3D): disposizione delle diverse categorie macromolecolari per rotazioni
lungo gli assi del legame singolo covalente;
Configurazione (3D): disposizione nello spazio dei gruppi laterali.
Se si prende ad esempio, invece del polietilene, il propilene e si dispone la catena in una
conformazione completamente estesa se si troveranno tutti i sostituenti (gruppi metili in questo
caso), colorati in rosso nella figura, da una parte (verso il lettore) il polimero di dice isotattico.
Ricapitolando quando un polimero in configurazione a zig-zag (completamente estesa) presenta
tutti i sostituenti nello stesso ordine il polimero si dice isotattico e avrà quindi una regolarità
strutturale tale che per esempio avrà una maggiore facilità a cristallizzare.
Volendo continuare l’analogia con i composti a basso peso molecolare si parla di configurazione
negli atomi di carbonio chirali (disegno a sinistra del polimero isotattico) dove avrò un idrogeno,
metile e poi le altre due catene. In effetti non è un vero carbonio chirale perchè le due catene sono
talmente lunghe che le posso considerare uguali. Però dal punto di vista della stereochimica è come
se fossero diverse e dove c’è il carbonio è come se si avesse un centro chirale.
Se invece, sempre per analogia i centri chirali fossero invertiti, cioè si trovassero i metili (in rosso) in
parti opposte in maniera alternata si avrebbe sempre una struttura regolare che si chiamerà
polimero sindiotattico.
Qualora si avesse una distribuzione casuale in cui si trovano i metili un poco da una parte e un poco
dall’altra allora si parla di polimero atattico.
1) Isotattica: quando un polimero - nella conformazione zig-zag – se visualizzato lungo i legami
della catena principale, presenta i sostituenti nello stesso ordine sterico;
2) Sindiotattica: i sostituenti presentano un arrangiamento alternato;
3) Atattica: la stereochimica è random.
5
Vecchio/Zagaria
14. BIONANO (Ciardelli)
24/03/2022
Viene riportato come esempio il polistirene che è analogo al polipropilene visto prima.
Il polimero si dirà: isotattico quando i fenili sono disposti tutti su un lato (evidenziati in giallo),
sindiotattico quando i fenili sono disposti in parti opposte (evidenziati in verde) e atattico quando i
fenili (evidenziati in blu) sono disposti in maniera casuale (in questo caso prima a sinistra poi a
destra poi due a sinistra ecc) . Quindi questa è una classificazione che si basa sulla regolarità
strutturale.
Adesso viene analizzato un altro tipo di classificazione che si basa sempre sulla struttura dei polimeri
che è la differenza tra polimeri termoplastici e reticolari.
I polimeri termoplastici possono essere processati scaldandoli oltre una certa temperatura, portarli
allo stato fluido, dargli una forma che poi viene fissata congelata per raffreddamento. Come si era
già accennato questo può essere fatto sia riscaldando sia sciogliendo il polimero in soluzione (in quel
caso si dovrà scaldare per rimuovere il solvente). Questi processi possono essere teoricamente
ripetuti all’infinito e sono alla base per esempio dei processi di riciclo. Il pet che si usa per le bottiglie
può essere rifuso e usato per fare altre bottiglie o altri oggetti. In
realtà tutti questi passaggi causano la degradazione del polimero per
cui alla fine il suo peso molecolare diventa talmente basso che non
può essere riutilizzato più.
I polimeri reticolati sono polimeri in cui ci sono punti di legame tra le catene polimeriche
trasversali. Si ha una situazione come quella rappresentata nell’immagine in cui si hanno delle
reti. Per cui non si riesce né a sciogliere questi polimeri né a fondere perché non si riesce ad
allontare all’infinito le catene perché possono scorrere come un fluido oppure essere disciolte
completamente, solvatate. Il processo di conferimento della forma è
contemporaneo al processo di reticolazione, per cui una volta formato
l’oggetto non è più possibile modificarlo, infatti questi materiali sono
riutilizzabili ma non riciclabili.
6
Vecchio/Zagaria
14. BIONANO (Ciardelli)
24/03/2022
All’interno dei polimeri termoplastici si possono distinguere quelli completamente amorfi che non
hanno parti cristalline da quelli che vengono chiamati semicristallini che hanno una certa
componente cristallina.
Polimeri termoplastici amorfi. Le catene polimeriche di questo tipo non sono sufficientemente
ordinate per formare domini cristallini per cui di fatto si ritrovano delle catene in conformazione di
gomito statistico random coil. Questi materiali al di sotto di una certa temperatura non hanno
mobilità molecolare per cui questi gomitoli sono fissati in quella specifica conformazione; il polimero
è come se fosse un vetro. Il vetro è l’unico solido che conosciamo amorfo mentre tutti gli altri solidi
sono cristallini. Questo stato dei polimeri al di sotto di una certa temperatura è chiamato solido
vetroso. Quindi un solido vetroso in cui la configurazione random coil è congelata. La temperatura
in cui c'è il passaggio di transizione da uno stato vetroso a uno stato sempre amorfo ma fluido viene
detta temperatura di transizione vetrosa Tg dove g sta per glass in inglese. Al di sopra di questa
temperatura il polimero pian piano diventa fluido e ci sono più possibilità di modifica
conformazionale, possono cioè avvenire quelle rotazioni dei legami di cui si parlava prima e le catene
scorrono le une sulle altre tramite scorrimenti che vengono detti plastici, cioè scorrimenti che non
vengono recuperati rimuovendo il carico (una volta subiti non si torna più indietro). Se il modello
meccanico per una trasformazione elastica è una molla, in questo caso sarà uno smorzatore.
Polimeri termoplastici semicristallini. Non si troverà mai un polimero che è al 100% cristallino ma
un polimero che insieme alle zone random coil presenta delle regioni ordinate. La parte rossa si
comporta esattamente come i polimeri amorfi in cui al di sotto della Tg è un vetro e al di sopra della
Tg è un fluido plastico. La parte cristallina in blu ha anch’essa una
termperatura caratteristica Tm che corrisponde alla temperatura
di fusione dei solidi inorganici cristallini. Osservando al
miscroscopio la fusione di un cristallo si vede il cristallo che fa la rifrazione della luce e quando arriva
da una certa temperatura non si vede più nulla perché il cristallo si è fuso. Questo serve anche per
determinare la purezza di un composto. Nel caso dei polimeri questa cosa non così netta: scald ando
si vede la trasformazione da solido a fuso in un intervallo di temperature. Si chiama Tm dove m sta
per melting che significa fusione in inglese. Anche superata la Tm in questi polimeri si possono avere
scorrimenti plastici.
Ricapitolando i polimeri cristallini sono costituiti da due fasi distinte: una fase amorfa e una
cristallina.
-
La fase amorfa è caratterizzata dalla temperatura di transizione vetrosa Tg sotto la quale si
ha un vetro e al di sopra della quale si ha uno stato gommoso che diventa via via più fluido.
La fase cristallina è solida in tutta la regione fino alla Tm oltre la quale diventa un fluido. E’
chiaro che se si vuole lavorare un polimero termoplastico semicristallino bisogna lavorare
abbastanza di sopra della Tm. Quindi Tm è rappresentativa di un passaggio di stato, da uno
stato ordinato, il solido cristallino, ad uno stato disordinato, il liquido (altamente viscoso) .
7
Vecchio/Zagaria
14. BIONANO (Ciardelli)
24/03/2022
La transizione vetrosa è influenzata dalla costituzione
molecolare del polimero. Nel dettaglio, il suo aumento
è legato alla presenza di gruppi pendenti ingombranti,
gruppi rigidi in catena come 1,4-fenilene come nel pet,
al simmetria di catena, presenza di gruppi polari o la
presenza di reticolazioni. Tutti gli aspetti contrari
come i gruppi pendenti flessibili, gruppi polari e
situazioni di dissimmetria provocano l'abbassamento
della temperatura di transizione vetrosa.
Un modo comune per abbassare la temperatura di transizione vetrosa dei polimeri è quello
dell’aggiunta di plasticizzanti o plastificanti che sono sostanze a basso peso molecolare che vanno a
inserirsi alla massa polimerica e quindi aumentano l’irregolarità strutturale. Questo serve per farli
diventare più maneggievoli: il caso più caratteristico è quello del PVC che sarebbe un polimero rigido
a temperatura ambiente e aggiungendo il plastificante diventa un polimero flessibile che può essere
utilizzato anche in altre applicazioni.
Per quanto riguarda invece la cristallinità questa è funzione della
regolarità strutturale, la quale rappresenta un aspetto dinamico.
Questo è un aspetto termodinamico cioè la struttura del
polimero dal punto di vista chimico è regolare allora si avrà una
maggiore facilità nel realizzare strutture ordinate che possono
cristallizzare. Quelle indicate dalla freccia nella figura si
chiamano lamelle cristalline e sono zone ordinate di catena che
si organizzano fra loro. La flessibilità delle catene rende conto
della velocità con cui il polimero può cristallizzare: tanto più il polimero è flessibile tanto più riesce
a trovare le conformazioni giuste per cristallizzare.
Si può per esempio indurre una maggiore cristallizzazione raffreddando un polimero dal fuso in
maniera più lenta, dandogli più tempo per trovare l'ordine cristallino. Questo invece è un fattore
cinetico. La cristallinità della percentuale di un campione polimerico può variare significativamente
in funzione di quella che si chiama la sua storia termica perché man mano a mano che questa
cambia, cioè per esempio se un polimero è stato raffreddato velocemente si può trovare una
cristallinità minore. Raffreddamenti molto veloci possono portare adirittura ad una cristallizzazione
nulla che si chiama quenching.
8
Vecchio/Zagaria
14. BIONANO (Ciardelli)
24/03/2022
Ci sono dei valori medi di cristallinità dei polimeri che
variano seconda della loro costituzione. Per esempio il
PET (politetrafluoroetilene) ha un grado di cristallinità
del 60%, il PTFE che è molto regolare e ha degli atomi
di fluoro piccoli come sostituenti riesce a cristallizzare
molto efficacemente e ha un grado di cristallinità dell’
80% e infine il Nylon 6-6 ha un grado del 50%. Questi
valori medi sono variabili in funzione degli aspetti di cui si è parlato prima.
I polimeri reticolati hanno un comportamento piuttosto diverso. Non sono termolabili in quanto il
loro comportamento alla temperatura è diverso da quello dei termoplastici. Dal punto di vista
chimico hanno dei punti evidenziati in azzurro nella prima figura in cui ci sono legami covalenti tra
le catene polimeriche (tra diverse catene polimeriche).
In particolare, non ci sono solo legami lungo la catena, ma anche
legami Intercatena che si chiamano punti di reticolazione. E’ chiaro
che questi punti di richiamo limitano gli scorrimenti di tipo viscoso
di tipo plastico perché creano degli impedimenti tra le catene e
soprattutto per i segmenti di catena che sono compresi tra i punti
di reticolazione.
Ovviamente non hanno tutti lo stesso comportamento ma questo varierà in funzione della densità
delle reticolazioni cioè del numero di reticolazione presenti; maggiore è il numero di reticolazione
più saranno limitati gli scorrimenti e il polimero risulta rigido. Conta anche il tipo di catena
presente tra i vari punti di reticolazione. Quindi anche la flessibilità delle catene così come
influenzava il comportamento termico e meccanico dei polimeri non reticolati e termoplastici
influenza anche quelli reticolati. Sono quasi sempre amorfi perché questi vincoli non permettono
libertà conformazionale sufficiente per realizzare un processo di cristallizzazione . Spesso le Tg sono
inferiori alle temperature Td di decomposizione, soprattutto quando ho alte articolazioni e gruppi
ingombranti in catena. Quindi si hanno degli oggetti molto stabili nella forma proprio per questi
punti di richiamo e il limite termico di utilizzo è indicato più dalla temperatura di decomposizione
piuttosto che da una Tg che non si vede perché scompare nella decomposizione. Non sono solubili
in solvente perché non si riesce ad allontanare all'infinito le molecole solvatandole proprio perché
ci sono queste reticolazioni.
Adesso si vede come si ottengono questi materiali che possono sembrare svantaggiosi ma in realtà
hanno vasti campi applicativi. Le reticolazioni possono essere di varia intensità quindi reticoli a
maglie larghe o a maglie più strette a seconda di quante reticolazioni ho e la lunghezza delle catene
tra i reticoli.
9
Vecchio/Zagaria
14. BIONANO (Ciardelli)
24/03/2022
Come si ottengono?
Per lavorarli si fanno polimerizzare o meglio reticolare all'interno di uno stampo. Tant'è vero che in
questo caso si parla di polimeri termoindurenti cioè il processo è inverso a quello visto per i
termoplastici, infatti per questi ultimi all'aumentare della temperatura il polimero era fuso, veniva
lavorato, formato e poi raffreddato. In questo caso, invece, il polimero, che in realtà è un
prepolimero allo stato liquido, viene versato nello stampo, a questo punto viene scaldato come e
avviene la reazione di reticolazione e il polimero solidifica; a quel punto però quando si raffreddano
non è possibile più tornare indietro a meno che non si rompono questi reticoli che comunque sono
molto difficili da rompere in quanto formati da legami covalenti. Questo è il caso di tutte quelle che
chiamiamo resine. Per esempio nei materiali compositi le resine poliestere, le resine fenoloformaldeide,le resine epossidiche ecc. In certi casi invece sono ottenute da polimeri termoplastici
che vengono reticolati con un reticolante o crosslinker. Per esempio la vulcanizzazione della gomma.
Questo serve per aumentare la stabilità oppure dargli proprietà meccaniche diverse . Nel campo
della biomedica nei materiali naturali tipo la gelatina che si scioglierebbe in acqua, se reticolati
questi materiali non sono più solubili ma si ringonfiano (si aumenta così la stabilità di quelli che
chiamo idrogeli).
Inoltre, ci sono dei polimeri particolari chiamati elastomeri che sono termoplastici con poche
reticolazione e un tipo di elasticità tipo gomma. Questi materiali possono essere parecchio allungati
applicando un carico e una volta rilasciato il polimero recupera completamente la forma iniziale.
Possono essere deformati fino a 7/8 volte rispetto alla lunghezza iniziale. Questa deformazione una
volta rimosso il carico verrà completamente recuperata.
Gli elastomeri debolmente reticolati sono caratterizzati da pochi punti di reticolazione, catene
molto flessibili, pesi molecolari molto alti e Tg basse perché altrimenti sarebbero troppo rigidi.
Debolmente reticolati vuol dire due o tre reticolazioni per catena, quindi molto poche; queste
lasciano al materiale il comportamento di flessibilità tipicamente plastico ma tolgono
l’irrecuperabilità della deformazione plastica grazie ai punti di memoria dovuti ai punti di
reticolazione. Non si tenda a pensare agli elastomeri come materiali reticolati perché pensiamo alle
gomme.
Gli elastomeri in realtà possono anche essere termoplastici, per lori i punti di memoria sono le parti
cristalline. Presentano regioni soft a Tg molto bassa (che rappresentano la parte flessibile del
polimero che risponde alle sollecitazioni meccaniche) e regioni hard con Tg superiore alla T di utilizzo
(che rappresentano la parte rigida del polimero, che agisce come un “crosslink” fisico perché
“blocca” la posizione relativa delle catene impedendone scorrimenti plastici; tali crosslink fisici sono
termolabili, in quanto le regioni hard diventano amorfe al di sopra della loro Tg).
Quindi, se si prende il materiale termoplastico in un intervallo di temperature che vanno dalla Tg
alla Tm allora la parte cristallina sarà solida e fa da punto di reticolazione fisica, e non chimica in
questo caso, mentre la parte amorfa è in endostato ed essendo sopra la Tg è flessibile. Dal punto di
vista concettuale funziona come i reticolati ma si ricordi che la reticolazione è non più chimica ma
fisica. Ovviamente questi elastomeri sono elastomeri purchè non si superi la Tm; a questo punto se
si fonde la parte cristallina vengono cancellati i punti di memoria e a quel punto si avranno dei
materiali plastici (deformazione irrecuperabile e smorzatore come modello meccanico) e non più
elastici (deformazione recuperabile e molla come modello meccanico).
10
Vecchio/Zagaria
14. BIONANO (Ciardelli)
24/03/2022
Domanda: Chiarimento sulla differenza tra reticolazione chimica e fisica.
Risposta: La reticolazione chimica è mostrata in figura a sinistra in cui nei
punti neri si hanno dei legami covalenti. Per esempio nelle resine c’è una
reazione tra gli ossidrili del fenolo e il gruppo epossidico e si formano dei
legami eterei covalenti. Termicamente non è possibile intervenire per
rompere questi legami covalenti perché si dovrebbero raggiungere
temperature molto alte che decomporrebbero il polimero. I polimeri semicristallini (figura a destra)
invece hanno una situazione in cui la catena in parte è amorfa (azurra) e in
parte ha delle situazioni ordinate che possono cristallizzare (rosso).
Per cui se si pensa alla situazione di prima in cui si avevano queste catene
amorfe in cui si formavano dei legami chimici. I punti rossi servono per ricordare alla catena la sua
posizione iniziale prima dell’applicazione del carico. Dati questi due domini cristallini collegati da
parti amorfe random coil, esercitando una trazione, ovvero applicando un carico, succede che le
catene amorfe scorrono e
il polimero si allunga. Una
volta rimosso il carico si
ritorna alla situazione
iniziale perché queste
zone cerchiate danno la
memoria di forma. Nei
polimeri
crosslinkati
invece questa memoria di
forma è data dai legami covalenti che ci sono tra le catene che esercitano la forza di richiamo. La
differenza dal punto di vista meccanico è la stessa, ma mentre in un polimero reticolato vale tutto
l'intervallo di temperature per cui non si decompone il polimero oppure il polimero abbia catene
allo stato vetroso sopra la Tg (è chiaro che se si va sopra 0 kelvin non sia ha più un elastomero), nei
termoplastici invece questa proprietà si manifesta solo per temperature di transizione vetrose e
temperatura di fusione perché oltre la temperatura di fusione vengono cancellati questi punti di
memoria in quanto diventano random coil e non fanno più da richiamo.
Reazioni di polimerizzazione-sintesi dei polimeri
La reazione chimica che consente di ottenere i polimeri è detta di polimerizzazione. Esistono due
diverse classificazioni:
-
-
La stechiometria in cui si possono avere o delle poliaddizioni in cui si trovano tutti gli atomi
dei monomeri nel polimero oppure delle reazioni di policondensazione in cui ho perdita di
molecole;
Meccanismo a stadi o meccanismo a catena.
11
Vecchio/Zagaria
14. BIONANO (Ciardelli)
24/03/2022
Ad esempio, nel polietilene si ha una
poliaddizione in cui il polimero ha la
somma dei monomeri iniziali. Nel
polietilene si ritrovano tutti gli atomi che si
avevano nell’etilene.
Le policondensazioni non sono altro che le reazioni di condensazione della
chimica organica. Ad esempio, in questo caso si ha un cloruro acilico più
un’ammina che reaggendo tra loro danno il legame ammidico (nel quadrato) più
HCl che è la molecola piccola di condensazione.
La stessa cosa la posso fare nella reazione di policondensazione che porta alla
formazione del Nylon 6-6.
Quindi, nelle policondensazioni una parte del monomero viene eliminata durante la
polimerizzazione sotto forma di piccole molecole che possono essere acqua o acido cloridrico.
Ricapitolando: nella poliaddizione ritrovo tutti gli atomi nel prodotto e nella policondensazione
perdo delle piccole molecole.
Questo esempio particolare mostra come anche nel polietilene può essere ottenuto non solo
tramite una poliaddizione come visto prima ma anche attraverso una policondensazione. Si prende
un dibromuro, lo si tratta col sodio e si forma il polietilene più NaBr, per cui di fatto è una
condensazione. Formalmente dal punto di vista chimico il polietilene ottenuto attraverso le due
reazioni diverse è lo stesso, tuttavia presenta proprietà diverse per cui per esempio con la reazione
di poliaddizione si ottengono pesi molecolari molto più alti.
Quindi, siccome il peso molecolare dipende dal meccanismo, non risulta più interessante la
classificazione basata sulla stechiometria appena vista, ma la classificazione sul meccanismo di
reazione che viene presentata ora.
Nella classificazione secondo il meccanismo si possono distinguere:
-
Processi di crescita a stadi: reazioni casuali tra due molecole che possono essere monomeri,
oligomeri o polimeri attraverso l’interazione tra i gruppi funzionali. Esempio: ammina e
cloruro acilico visto prima nel nylon. La reattività, cioè la velocità con cui questa reazione
12
Vecchio/Zagaria
-
14. BIONANO (Ciardelli)
24/03/2022
avviene, e la probabilità è abbastanza indipendente dal peso molecolare (assunzione di
Flory) per cui anche se il polimero cresce la reazione può avvenire in maniera indifferente.
Processi di crescita a catena: in questo caso si forma una specie reattiva che può essere ad
esempio un radicale o uno ione positivo o negativo che trasferisce la specie attiva al
monomero e via via si attaccano nuovi monomeri alla catena. Concettualmente può essere
visto come un treno a cui vengono attaccati nuovi vagoni. In questi processi si formano
polimeri, cioè macromolecole, in tempi abbastanza brevi per cui il peso molecolare è già
abbastanza alto in tempi ristretti ma la completa trasformazione del monomero nel polimero
si raggiunge in tempi più lunghi. Pertanto, il monomero sparisce alla fine della reazione.
Queste differenze sono bene semplificate in quest'immagine .
Nella polimerizzazione a stadi nella prima fase si hanno solo i monomeri rappresentati con i pallini
bianchi. Successivamente iniziano a formarsi legami, come quello ammidico visto prima in cui un
cloruro incontra una ammina, e quindi dei dimeri. Nella terza fase continuano a formarsi nuovi
legami e il peso molecolare aumenta un poco, infatti si vedono dei trimeri. Dopo tre passaggi inizia
a sparire il monomero ma ancora il grado di polimerizzazione è basso.
Nella polimerizzazione a catena è necessaria una molecola chiamata iniziatore (in blu) che porta dei
radicali (puntino rosso) che attiva il monomero. Il radicale viene quindi trasferito al monomero nella
prima parte. Nel passaggio successivo si attacca un nuovo monomero. L’ultimo monomero è sempre
colorato in rosso perché il radicale si trasferisce sempre sull’ultimo monomero attaccato. Dopo tre
passaggi si ha già un polimero ma ancora tanti monomeri non reagiti a differenza della
polimerizzazione a stadi in cui si aveva il contrario perché spariva il monomero però non si aveva
ancora polimero. Le reazioni a stadi sono più lente mentre quelle a catena più rapide (ad esempio il
polimetilmetacrilato si può ottenere in 20 minuti mettendo il monomero in una boccetta di vetro,
scaldandolo e dopo mezzora rotto il cilindro si trova un cilindretto di polimero. In questo caso
bisogna accontentarsi di conversioni abbastanza basse perché per quelle alte ci vuole comunque più
tempo).
Le caratteristiche del meccanismo di polimerizzazione a stadi:
13
Vecchio/Zagaria
-
-
-
14. BIONANO (Ciardelli)
24/03/2022
Le catene polimeriche restano attive durante l’intero processo di polimerizzazione; quindi, c’è
sempre reattività e tutto il tempo necessario a consumare completamente le specie
monomeriche;
Le reazioni di inizio (quando si formavano i dimeri nel secondo step del processo mostrato
nell’immagine di prima) e di propagazione avvengono con velocità confrontabili perché di fatto
sono le stesse reazioni;
La macromolecola si forma in un tempo relativamente lungo per cui per ottenere il polimero
bisogna che passi abbastanza tempo;
Il grado di polimerizzazione aumenta nel tempo.
Le reazioni collaterali sono:
-
-
La presenza di impurezze monofunzionali perché chiaramente se non si ha reattività, ovvero se
ha reagito già con un gruppo e dall’altra parte non presenta alcun gruppo, allora lì il polimero
non reagisce;
Formazione di composti ciclici dovuta a condensazione intra o intermolecolare dei gruppi
funzionali reattivi che non portano a polimerizzazione e fanno morire il polimero.
Si faccia attenzione sul fatto che la polimerizzazione a stadi può avvenire sia per policondensazione
che per poliaddizione. Si possono avere due monomeri bifunzionali A-A B-B tipo diammina di
cloruro.
Esempio: formazione di un dimero bifunzionale da due monomeri bifunzionali.
La reazione procede con formazione di trimeri, tetrameri, etc attraverso reazione che hanno la
stessa velocità e meccanismo (esterificazione): formazione di una miscela di molecole reattive a vari
pesi molecolari.
Reazione di esterificazione
Questa reazione porta alla formazione del
polimero passando dal dimero, trimero,
tetrameri facendo crescere via via il peso
molecolare senza variazioni nella velocità di
reazione.
Quindi si ha sempre una miscela di molecole reattive a vari pesi molecolari finché alla fine non si
terminano i gruppi funzionali.
14
Pascale/ Di Leo
15 Bionanotecnologie (Ciardelli)
24/03/2022
REAZIONI DI POLIMERIZZAZIONE
CARATTERISTICHE DEI MONOMERI nelle reazioni policondensazione
Si hanno due gruppi funzionali A e B complementari che reagiscono tra loro mediante reazione di
condensazione (si libera una piccola molecola) oppure tramite reazione di addizione al doppio
legame (tipicamente quella dei poliuretani); in questo caso non si formano molecole piccole. Il
meccanismo è sempre lo stesso cioè a stadi.
Tali monomeri possono essere di tipo A-A, B-B (diammina di cloruro, diolo di acido, diolo di
isocianato) oppure del tipo A-B, quindi un solo monomero che contiene, per esempio, sia il gruppo
carbossilico che ossidrilico, ad esempio i poliesteri (A gruppo acido B gruppo alcolico) e le poliammidi
(A gruppo acido/cloruro, B gruppo amminico).
Tutte le molecole presenti nel mezzo di reazione (monomeri, oligomeri, polimeri) hanno la stessa
probabilità di reagire durante l’intero processo di polimerizzazione.
A-B se ho tutte e due le funzioni nello stesso monomero o A-A/B-B se invece ho due monomeri
diversi (nylon 6,6 in questo caso).
Riassunto MECCANISMO DI POLIMERIZZAZIONE A STADI
•
•
•
•
•
Due qualsiasi molecole possono reagire: inizio, propagazione e terminazione sono identici
nel meccanismo e nella velocità;
La lunghezza della catena (e quindi il peso molecolare) cresce in funzione del tempo al
procedere della reazione;
Sono necessari alte conversioni per la produzione di un polimero con un elevato grado di
polimerizzazione Xn;
Sono necessari rapporti equimolari tra le funzionalità reagenti per avere elevati Xn;
All’aumentare del grado di polimerizzazione, aumenta il peso molecolare medio e anche
l’indice di polidispersità aumenta;
1
Pascale/ Di Leo
•
15 Bionanotecnologie (Ciardelli)
24/03/2022
Le polimerizzazioni a stadi possono essere reazioni di condensazione, (es.poliammidi da
diacidi carbossilici e diammine o poliesteri da diacidi carbossilici e dialcooli) o di addizione
(es poliuretani da diisocianati o dialcooli); le tipologie di monomeri di indicano come: A-B,
A-A/B-B.
Tabella riassuntiva
I polimeri delle addizioni:
Dalla reazione di un diisocianato
un’ammina si ottiene l’urea (a sinistra)
e
se invece di un diolo si usa una diammina si ottiene una poliurea.
2
Pascale/ Di Leo
15 Bionanotecnologie (Ciardelli)
24/03/2022
MECCANISMO DI POLIMERIZZAZIONE A CATENA
1. Inizio: generazione del sito attivo sul monomero.
Si ha un iniziatore I più il monomero M e si forma una
specie attiva che può essere un radicale ma anche un
carbocatione o un carbanione. Si tratta rispettivamente
di polimerizzazione radicalica, cationica, anionica.
2. Propagazione: addizione dei monomeri
sul sito attivo e suo trasferimento al
terminale di catena.
Può esserci la ricombinazione tra due catene e la formazione di un legame, quindi si
distrugge il sito attivo tramite un urto nei recipienti del reattore o un trasferimento del sito
attivo ad un’altra molecola.
Le reazioni a catena sono meno controllabili e meno lineari dal punto di vista della
reattività rispetto a quelle a stadi.
3. Terminazione: per qualche motivo muore il radicale, muore la specie attiva e quindi la
reazione termina.
4. Trasferimento: trasferimento del sito attivo ad un’altra molecola.
In genere i monomeri sono in saturi (doppio legame). Ci sono monomeri vinilidenici (CH2=CR 1R2) o
vinilici (CH2=CHR).
Si deve formare la specie attiva quindi la reazione deve essere un radicale o uno ione (catione o
anione) che addiziona monomeri in sequenza rapidissima (frazione di secondo). Richiedono
generalmente la presenza di un iniziatore (composto chimico o anche semplicemente radiazione o
riscaldamento) per far partire la reazione.
Si prendono i monomeri vinilici per semplicità: in funzione del tipo di R si può avere un meccanismo
cationico, anionico o radicalico (adattabile a più casi).
CASO 1)
Ad esempio, se si ha un gruppo alcossi elettron donatore con un iniziatore cationico I +; questo si
attacca formando ICH2 e si forma il carbocatione C+. Con la risonanza si stabilizza il carbocatione
spostando la carica positiva sull’ossigeno.
3
Pascale/ Di Leo
15 Bionanotecnologie (Ciardelli)
24/03/2022
Grazie a questa forma di risonanza questa specie è più stabile e questo spiega perché si utilizza un
meccanismo cationico a catena con gruppi elettron donatori.
CASO 2)
Gruppo elettron attrattore, per esempio il CN, a catena anionico. In questo caso c’è un anione I- che
porta alla formazione di un carbanione.
I polivinileteri si fanno per via cationica mentre il poliacrilonitrile si può fare per via anionica.
Benzene ad esempio meccanismo radicalico.
Riepilogo:
Quindi i meccanismi a catena prevedono una reazione di inizio sul monomero che crea un
monomero attivo * (radicale, catione, anione).
4
Pascale/ Di Leo
15 Bionanotecnologie (Ciardelli)
24/03/2022
In presenza di elettron donatori si utilizza un meccanismo cationico: si forma un carbocatione
secondario stabilizzato dall’effetto di risonanza, rendendo favorevole questo meccanismo di
reazione (viniledri con gruppo alcossi elettron donatore si polimerizzano per via cationica).
Se si ha invece un gruppo elettron attrattore che stabilizza invece i carbanioni, portando via carica
negativa, allora si può utilizzare il meccanismo anionico. Ad esempio si utilizza un alcolato come
iniziatore e si crea un carbanione che è stabilizzato dalla forma in cui è spostata la carica negativa
su un atomo di azoto.
CONFRONTO TRA I MECCANISMI A STADI E A CATENA
Le reazioni a catena sono molto più veloci e il peso molecolare sale rapidamente contrariamente
alle reazioni a stadi in cui il peso molecolare si mantiene basso finché non hanno reagito tutti i gruppi
al 100%.
Il peso molecolare medio nelle reazioni a catena non aumenta tanto ma aumenta la conversione da
monomero a polimero.
Nelle reazioni a catena ci sono delle reazioni non volute, quelle di fine di reazione, dove il radicale
muore perché urta contro un altro radicale oppure urta contro le pareti del recipiente; alla fine può
rimanere del monomero non reagito.
Il peso molecolare dei polimeri ottenuti nel processo a catena è legato al rapporto tra le varie
velocità del processo (inizio, propagazione, termine e trasferimento); in certi casi si vuole far sì che
il peso molecolare non cresca troppo aggiungendo specie chimiche che aumentano probabilità di
termine. Nelle reazioni a stadi il peso molecolare cresce con il tempo di polimerizzazione: più si
aspetta più aumenta il peso molecolare se si lavora in rapporti stechiometrici.
Nelle reazioni a stadi possono reagire monomeri o oligomeri indifferentemente mentre nelle
reazioni a catena la catena polimerica cresce per l’attacco di unità monomeriche.
5
Pascale/ Di Leo
15 Bionanotecnologie (Ciardelli)
24/03/2022
FOTOPOLIMERIZZAZIONE
È alla base di vari processi, tra cui la fotografia.
Un fotopolimero è una specie che, sottoposta ad interazione diretta o indiretta alla luce, varia le sue
proprietà chimico-fisiche.
In genere ho un processo di polimerizzazione o depolimerizzazione indotto dalla luce e reso possibile
dalla presenza contemporanea di un fotoiniziatore, cioè una sostanza che riceve la radiazione e poi
trasmette il tutto al polimero. I fotopolimeri possono essere monomeri o oligomeri (a basso peso
molecolare) che presentano un gruppo funzionale X che, irraggiato, fa partire una polimerizzazione
a catena per formare una reticolazione.
FOTOINIZIATORE: riceve la luce, forma un radicale, e poi trasmette al gruppo funzionale X che poi
innesta la polimerizzazione.
GRUPPI FUNZIONALI X: in certi casi possono essere fotoattivi e reagiscono con accoppiamento o
dimerizzazione.
In genere questi polimeri hanno una forma a stella con n ramificazioni; se n = 0 si ha un polimero
lineare.
Ci sono altre formulazioni che possono portare a formazione di materiali a più alto/basso peso
molecolare.
C’è un polimero che presenta i gruppi X e un secondo reagente con gruppi Y complementari. Quando
si irraggia in presenza di un fotoinizializzatore si ha una reazione tra X e Y e questo fa sì che avvenga
una reticolazione poiché si hanno gruppi polifunzionali con n > 0.
6
Pascale/ Di Leo
15 Bionanotecnologie (Ciardelli)
24/03/2022
In certi casi si ha una reazione fotoindotta in presenza o assenza del fotoinizializzatore che comporta
una trasformazione dei gruppi funzionali pendenti (polimero aggraffato) e gli X si trasformano in Y
con conseguente aumento di solubilità del polimero (serve nelle fotografie e nelle litografie).
In certi casi i fotopolimeri possono subire reazioni di scissione se irradiati, si rompono i legami
chimici in catena quindi il peso molecolare si abbassa e quindi si ottengono oggetti in realtà più
solubili. Dopo l’irraggiamento si elimina il materiale irraggiato, mentre nei casi precedenti si rimuove
eventualmente il materiale non irraggiato.
Proprietà MECCANICHE DEI POLIMERI
Le proprietà meccaniche si testano sfruttando il fatto che la maggior parte dei polimeri sono
termoplastici e si fabbrica un provino ad osso di cane (ad esempio fondendo il polimero) con una
sezione A0 e una lunghezza l0.
7
Pascale/ Di Leo
15 Bionanotecnologie (Ciardelli)
24/03/2022
Ci sono due traverse, una fissa e una mobile, grazie a cui si può stirare il materiale per misurare la
forza. Si deve operare in condizione controllata (temperatura e umidità idealmente costanti) e
bisogna impostare una velocità a cui si deve muovere la traversa mobile; si misura la forza F
necessaria e si ricavano lo sforzo σ = F/A0 e la deformazione A% = [(l-l0)/ l0]ˑ100.
Si costruisce poi la curva sforzo-deformazione in cui viene riportata σ in funzione di ε. Queste curve
per i polimeri non sono così predittive e realistiche come nei materiali metallici, però si utilizzano.
In genere la partenza a bassi sforzi è lineare e il polimero ha un comportamento elastico; poi si inizia
a vedere la curva che si piega: questa parte è quella che viene definita deformazione visco-elastica.
A un certo punto (punto di snervamento o di Yield) la curva ha un massimo e, a sforzo costante, il
polimero si allunga senza opporre resistenza fino a che non si arriva ad un punto di rottura.
Importante è il punto A dove finisce il comportamento elastico: l’integrale della curva, cioè l’area
sottesa a essa, rappresenta l’energia per la frattura fragile.
Tutto il resto che si vede nel grafico è l’energia richiesta per la rottura tenace, per la parte non
fragile.
Il punto B indica la resistenza a rottura. Un altro punto importante è l’allungamento a snervamento
(e la corrispondente tensione).
la pendenza della curva nel tratto lineare è il modulo elastico.
Curva sforzo-deformazione ideale
8
Pascale/ Di Leo
15 Bionanotecnologie (Ciardelli)
24/03/2022
Un polimero vetroso è molto fragile: ha un comportamento elastico e poi si rompe molto presto.
Un semicristallino ha un comportamento molto simile. Se ci si sposta ad una temperatura compresa
tra Tg e Tm si ha un comportamento diverso: una deformazione elastica e poi uno snervamento e un
comportamento plastico.
Un elastomero ha un comportamento elastico ma con modulo estremamente basso: in realtà non
è mai un comportamento puramente elastico per ma visco-elastico. Inoltre, presenta un nuovo
irrigidimento dovuto all’irrigidimento sotto stiro.
Normalmente i polimeri non hanno deformazioni lineari per piccole deformazioni; Solo quelli rigidi
a temperature molto basse hanno un comportamento elastico simile a quello di un metallo.
Il fatto che si veda il punto di snervamento così bene in realtà è un artefatto perché lo sforzo che si
riporta è quello calcolato sulla sezione primitiva A0; quando si stira un polimero, questo crea quello
che si chiama necking (da neck, collo) e la sezione reale diminuisce (strizione). Si applica quindi una
forza su una sezione più minore e lo sforzo è quindi maggiore. Per questo motivo la curva dà
informazioni nel confronto tra materiali ma non è una curva reale (curva ingegneristica).
Il punto snervamento non è preciso nei polimeri perché essi snervano facilmente. Il modulo di
Poisson, cioè il rapporto tra la deformazione longitudinale e quella trasversale, è maggiore perché
il polimero tende a deformarsi più trasversalmente che longitudinalmente, per questo snervano e
quindi la curva reale sarebbe quella tratteggiata in figura.
Quando c’è il necking lo stress è ancora più complesso in quanto si hanno sezioni diverse in punti
diversi del provino (curva corretta). Il polimero si restringe cambia A 0 e quindi F/A.
9
Pascale/ Di Leo
15 Bionanotecnologie (Ciardelli)
24/03/2022
Si può analizzare come si comportano i vari polimeri.
➢ POLIMERI AMORFI
Polimeri fragili e amorfi come il polistirene sono rigidi ed elastici.
Nel polimetalcrilato c’è una zona elastica (1) e una zona viscoelastica (2) in cui il polimero si
comporta in parte come una molla e in parte come uno smorzatore (in parallelo, modello
meccanico).
➢ POLIMERI SEMI-CRISTALLINI
Si ha lo snervamento e poi si crea il neck. Non si vede più aumento dello sforzo all’aumentare della
deformazione perché il materiale si sta allungando e di fatto si stanno orientando le catene
polimeriche.
Il necking può essere importante a
livello di lavorazione dei materiali
(strizione o stiro a freddo) perchè
comporta la distensione delle
catene nelle zone amorfe che si
orientano secondo lo stiro, così
come i cristalliti.
Per alti valori di deformazione si
forma una strutttura fibrillare e in
genere si fa tra la Tg e la Tm con
velocità di deformazione di un certo valore.
10
Pascale/ Di Leo
15 Bionanotecnologie (Ciardelli)
24/03/2022
VISCOELASTICITA’
È un comportamento misto sia viscoso che elastico.
È una deviazione sia dalla legge di Hooke (molla) sia dalla legge di Newton (fluido con viscosità
indipendente dal tempo). Quindi le deviazioni sono:
1) La deformazione o velocità di deformazione possono non essere direttamente proporzionali
allo sforzo;
2) Lo sforzo può dipendere sia dalla deformazione che dalla velocità di deformazione (come
pure da derivate superiori della deformazione rispetto al tempo): COMPORTAMENTO
VISCOELASTICO.
Per rappresentare questo comportamento in genere non sono tanto importanti le curve sforzodeformazione ma lo sono di più gli esperimenti di creep. Si va cioè a vedere la dipendenza dal tempo
dell’allungamento dell’applicazione del carico.
Questo ha un interesse anche pratico (es: attaccapanni che ha un giubbotto appeso con un peso
sempre uguale che produrrà quindi uno sforzo circa costante, se i polimeri con cui è fatto
l’attaccapanni avessero un creep e l’allungamento aumentasse nel tempo, il giubbotto arriverebbe
a terra).
Si ha una deformazione elastica istantanea quando si attacca il giubbotto, una deformazione
viscoelastica che dipende dal tempo di applicazione del carico secondo una legge esponenziale e
infine ci può essere una componente plastica o visco-plastica che è un’integrazione della legge di
Newton.
11
Pascale/ Di Leo
15 Bionanotecnologie (Ciardelli)
24/03/2022
Esperimento di creep dal punto di vista grafico:
Si applica lo stress e si misura ε in funzione di t.
•
•
•
OA: deformazione elastica.
AB: esponenziale che rappresenta la deformazione viscoelastica
BC: deformazione puramente plastica.
Se si rimuove lo stress:
•
•
•
CD: si recupera istantaneamente la deformazione elastica
DE: si recupera non istantaneamente ma con un certo termine di ritardo τ
C’è una parte c’ che non si recupera più ovvero la parte plastica.
Dal punto di vista meccanico si può modellare il fenomeno con il modello di Voigt-Kelvin:
Ci sono una molla E1, che rappresenta la prima deformazione (parte elastica), e una seconda molla
E2 che è accoppiata in parallelo ad uno smorzatore (parte viscosa). Poi c’è una terza parte, la
deformazione plastica, rappresentata da η3 che non viene recuperata.
12
Pascale/ Di Leo
15 Bionanotecnologie (Ciardelli)
24/03/2022
Dopo aver applicato lo sforzo si allunga E1 e si allunga E2 con un certo ritardo perché rallentata dallo
smorzatore. Si ha poi la deformazione totalmente viscosa. Rimuovendo lo stress la molla E1 ritorna
subito alla posizione iniziale, la molla E2 ritorna con un certo ritardo e la deformazione dovuta allo
smorzatore η3 non viene recuperata più (vedi ultima figura a destra su).
Domanda: nel creep qual è fisicamente la componente plastica? Se si può identificare.
Dipende dal polimero. È comunque una fase abbastanza fluida in quella temperatura a cui si sta
facendo la prova (ovviamente non è o sotto la Tg o sotto la Tm). Per esempio, in un polimero che ha
fase hard e soft quest’ultima è responsabile del comportamento plastico (o viscoelastico se c’è
ancora una parte hard). Più che identificare una componente è più legato alla situazione rispetto
alla temperatura. La parte plastica è quella dovuta allo scorrimento delle catene polimeriche una
sull’altra quindi è chiaro che questo dà l’idea di un comportamento fluido, o meglio di un liquido
viscoso. I polimeri sono solidi/rigidi, solidi meno rigidi e fluidoviscosi a seconda della variazione di
temperatura o dello sforzo che si applica.
➢ ELASTOMERI
Le gomme sono polimeri con catene semplici. Non hanno gruppi generalmente ingombranti, quindi
in genere sono catene alifatiche quindi con attrito interno trascurabile.
13
Pascale/ Di Leo
15 Bionanotecnologie (Ciardelli)
24/03/2022
I pesi molecolari sono molto alti nell’ordine dei milioni.
Sono materiali viscosi, tenaci e forti con Tg molto bassa, quindi quando vengono usati a temperatura
ambiente sono sopra la Tg e sono reticolati debolmente (hanno pochi di quei punti di reticolazione
visti prima).
Hanno un comportamento per tutta la curva sforzo-deformazione di tipo viscoelastico con
deformazioni plastiche nulle (si recuperano tutte le deformazioni); anche le deformazioni elastiche
sono trascurabili rispetto a quelle viscoelastiche.
Quando si ha un forte allungamento si ha un aumento delle proprietà meccaniche perché si
orientano le fibre; ad esempio, le gomme dell’aereo quando atterra subiscono uno sforzo alto molto
brusco e si irrigidiscono e questo serve per atterrare bene. Questi sono gli elastomeri in cui si arriva
a sforzi molto alti per allungamenti molto alti.
NANOSCALA: PROPRIETÀ E VANTAGGI
Si vedrà come le proprietà fisiche dipendono dalla scala dimensionale e l’applicazione di questi
concetti nel design di MEMS e BIOMEMS
Scala dimensionale:
Materiali con dimensioni alla nanoscala presentano proprietà fisico-chimiche diverse rispetto agli
stessi materiali alla scala più grande. Si vedrà la dipendenza dei fenomeni fisici dalla lunghezza L.
Banalmente i fenomeni fisici dipendono dalla massa M che è la densità per il volume, che dipende
dalla L3. La massa in funzione della lunghezza avrà quindi un andamento cubico.
14
Pascale/ Di Leo
15 Bionanotecnologie (Ciardelli)
24/03/2022
Per dimensioni piccole la massa vale molto poco. Il tempo non dipende dalla lunghezza, il tempo di
diffusione dipende dalla lunghezza al quadrato → alla nanoscala si possono annullare le differenze
di concentrazione e avere diffusione molto più rapida ed efficace.
L’area, per esempio, dipende da L2 quindi le aree possono essere molto piccole, il rapporto area su
volume è massimizzato alla nanoscala: avere più superficie significa avere più reattività.
(Anticipazione di ciò che si dirà nella prossima lezione).
15
Prochilo/Ricciardi
16 Bionanotecnologie (Ciardelli)
25/03/2022
NANOSCALA: PROPRIETÀ E VANTAGGI
Miniaturizzazione – scalabilità dei fenomeni fisici
Le grandezze fisiche ed i fenomeni fisici scalano
rispetto alle dimensioni. Poiché alla nanoscala si
lavora in dimensioni molto piccole, la scalabilità
fa sì che le forze e le grandezze fisiche che sono
dipendenti dalla lunghezza con esponenti
negativi, come le forze di Van der Waals, le
interazioni molecolari o anche il campo
elettrico, siano molto più importanti su piccola
scala e diventino più forti mentre altre
diventano meno grandi a scale piccole. In
particolare, ci concentreremo sul tempo di
diffusione ed il numero di Reynolds che sono
due elementi importanti che permettono di
realizzare dispositivi alla nanoscala per
applicazioni in campo biochimico, biologico e
biomedico con proprietà diverse.
Forza Gravitazionale
Si è visto come si ragiona per calcolare questa dipendenza laddove ci siano grandezze che
dipendono dalla distanza in maniera non immediata, come la forza gravitazionale che dipende dal
reciproco della distanza al quadrato ma è anche dipendente dal prodotto delle masse. Se, in prima
approssimazione, si considera che diminuendo la dimensione la riduzione proporzionale si ha per
tutte le grandezze, si può arrivare ad una dipendenza della forza gravitazionale che è una
proporzionalità di 𝑙 perché la massa dipende dal volume che a sua volta dipende da 𝑙 . Anche la
forza gravitazionale alla nanoscala diventa qualcosa di trascurabile.
1
Prochilo/Ricciardi
16 Bionanotecnologie (Ciardelli)
25/03/2022
Rapporto superficie volume
Questo avviene anche per il rapporto superficie su volume. La superficie dipende da 𝐿 e il volume
dipende da 𝐿 quindi facendo il rapporto si trova una dipendenza di 1/L. Vuol dire che il rapporto
superficie su volume diventa molto grande alla nanoscala. Questo perché viene rappresentato da
una curva iperbolica che risponde alla funzione matematica f(x) = 1/x.
Questo è importante in vari fenomeni: per esempio il riscaldamento ed il raffreddamento sono
molto più veloci per corpi piccoli. Vi era l’esempio del topo che mangia molto più velocemente di
un elefante perché ha bisogno di mantenere un rate metabolico molto alto per mantenere la
propria temperatura interna sufficientemente alta. Può essere una proprietà importante quando si
va a costruire dei dispositivi.
Può diventare importante il fatto che la funzionalizzazione di superfici nanostrutturate,
nanodimensionate, può permetterci di avere delle reazioni di modifica superficiale molto più
efficienti che su superfici normali lisce. Questo perché se si vuole legare un ligando, quindi una
sostanza che va ad interagire con le cellule oppure con altri oggetti, se la superficie è liscia si
riuscirà a collocarne solo alcune molecole, alcuni gruppi di legame; mentre in una superficie
nanostrutturata (ad es. foresta di nanotubi: un nanotubo è un tubo di carbonio di dimensioni
nanometriche, come se fosse un
foglio di grafite piegato a cilindro)
ci sono metodi che permettono
di costruire superfici con
un’incredibile quantità di
nanotubi sulla superficie stessa.
Ciascuna punta del nanotubo è
come la punta delle zampe del
geco, se porta con sé un ligando
2
Prochilo/Ricciardi
16 Bionanotecnologie (Ciardelli)
25/03/2022
si può localizzare sulla superficie un numero di ligandi molto superiore rispetto alla
funzionalizzazione superficiale su una superficie liscia non strutturata proprio perché l’alto
rapporto superficie su volume permette di avere un numero di siti reattivi molto più alto. Ad
esempio, nella catalisi avere dei catalizzatori nanostrutturati può avere un vantaggio di efficienza
del catalizzatore stesso nell’accelerare le reazioni chimiche.
Tensione Superficiale
Altra grandezza di cui può avere una certa importanza analizzare la dipendenza dalla distanza è la
tensione superficiale. Essa è l’energia dovuta al fatto che mentre in una massa, ad esempio di
liquido, le molecole sono circondate da altre molecole uguali e quindi in tutte le direzioni sentono
le forze d’interazione attrattive di tutte le altre molecole, lo strato molecolare che si trova
all’interfaccia tra un liquido che può essere l’acqua e l’aria manca della forza attrattiva esercitata
dalle molecole dello strato superiore, proprio perché lo strato non c’è. Quindi queste molecole
sentono questo non equilibrio di forze e si crea un’energia libera superficiale che fa sì che ci sia
una forza.
Questa tensione è sfruttata da insetti molto leggeri per camminare sull’acqua perché sfruttano
questa forza per rimanere in equilibrio sulla superficie dell’acqua. Anche questa tensione è
proporzionale tramite un coefficiente di proporzionalità alla lunghezza; alla nanoscala anche
questa grandezza diventerà molto meno importante.
Tempo di Diffusione
Una grandezza che può avere interesse progettuale è il tempo di diffusione. Se ci sono due regioni
separate da un divisorio permeabile e che presentano concentrazioni diverse di una specifica
sostanza, la sostanza diffonderà dalle zone concentrate a quelle a minore concentrazione dopo
sufficiente tempo. Si definisce tempo di diffusione il tempo che serve per annullare il gradiente di
concentrazione e per passare da una situazione iniziale a una finale in cui nelle due regioni non c’è
più differenza di concentrazione. Se si considera l’annullamento del gradiente su una distanza L,
vale una legge che è l’integrazione della legge di Fick, dove:
D = coefficiente di diffusione
(dipende dalla sostanza ma a parità
di sostanza è una costante)
𝑞 = costante adimensionale
3
Prochilo/Ricciardi
16 Bionanotecnologie (Ciardelli)
25/03/2022
La grandezza 𝑡 è ricavabile dalla legge di Fick, è proporzionale ad 𝑙 ed è
rappresentabile da una parabola; si vede che alla nanoscala è una grandezza
molto piccola (in sistemi micro e nanostrutturati i tempi di diffusione sono
molto più bassi).
Se si immagina di avere un contenitore con un lato di 1 mm il volume sarà di 1 μL, se di lato 100
μm sarà di 1nL e così via come nella tabella:
La diminuzione delle dimensioni del contenitore porta ad una diminuzione da microlitro a
fentolitro del volume in gioco. Il tempo di diffusione varia di un fattore 100 perché si ha 𝑙 . Il
tempo di diffusione alla micro e nanoscala è molto minore. È minore il tempo necessario affinché
le molecole migrino secondo gradiente; questo consente di fare mescolamenti più rapidi e,
siccome le reazioni chimiche avvengono quando due specie si incontrano, anche le reazioni
chimiche avvengono più velocemente. Questo ha portato allo sviluppo di micromiscelatori e
microreattori che permettono di far avvenire reazioni in tempi più veloci.
Numero di Reynolds
Altro aspetto importante di utilizzare volumi piccoli è quello di poter ottenere flussi laminari in
questi volumi. Un flusso si definisce laminare in funzione del suo numero di Reynolds.
Da 𝑙 non dipendono viscosità e densità ma
velocità e lunghezza caratteristica. Quindi il
numero di Reynolds dipende dalla lunghezza
con una dipendenza di tipo quadratico. Si ha
ancora una parabola, ancora valori piccoli
alla micro e nanoscala. Quando Re è basso si
ha effettivamente un flusso laminare;
quando Re è alto si ha un flusso turbolento.
Se si mettesse una polverina nel liquido per
vedere come il liquido fluisce, si vedrebbero
le particelle scorrere senza mescolarsi nel
flusso laminare mentre un continuo
rimescolamento in quello turbolento.
4
Prochilo/Ricciardi
16 Bionanotecnologie (Ciardelli)
25/03/2022
Il vantaggio dei flussi laminari è che quando si alimentano in un canale unico essi non si mescolano
tra loro. In microfluidica i bassi Re permettono di avere flussi laminari che hanno il vantaggio di
essere più facili da modellare dal punto di vista teorico. Se i flussi sono laminari i flussi continuano
a fluire paralleli uno all’altro anche quando sono mescolati (non si mescolano di fatto). Regolando
la velocità del flusso si possono ridurre i fenomeni diffusivi e i fluidi continuano a fluire separati,
senza mescolamento.
[Filmato https://www.youtube.com/watch?v=5QVwljd04Kw]
I diversi fluidi alimentati da canali differenti, a tempi consecutivi,
si incontrano in un canale unico nel quale però non si vanno a
mescolare (i colori restano separati nel canale unico).
Micro e nanoscala – cosa possiamo fabbricare?
Si vede ora cosa si può fabbricare alla micro e nanoscala.
Gli oggetti micrometrici sono oggetti comuni che chiunque è in grado di produrre, ad esempio la
cruna dell’ago di 2-3 mm fabbricabile con metodi tradizionali. La micro e nanoscala permette di
realizzare device micromeccanici anche molto raffinati su scala 10-100 micron. Si è già visto che si
possono produrre con opportuni metodi nanoparticelle polimeriche di dimensioni 50-100
nanometri (paragonabili a quelli dei virus) e che possono interagire in maniera particolare con le
cellule. Dalla grafite si possono produrre nanotubi di carbonio di soli 10 nm. Addirittura si riesce a
scendere ancora più giù con tecniche di microscopia a sonda usate come tecniche di fabbricazione:
nell’esempio in fondo a destra è stato creato un atollo corallino di 48 atomi di ferro depositati su
una superficie di rame (si possono depositare anche singoli atomi). Ci sono quindi tecnologie in
grado di costruire oggetti alla micro e nanoscala che possono essere sfruttate per varie
applicazioni.
5
Prochilo/Ricciardi
16 Bionanotecnologie (Ciardelli)
25/03/2022
BioMEMS (Biological Micro-Electro-Mechanical Systems)
In particolare queste tecniche si possono sfruttare in campo biomedicale. I MEMS sono usati in
elettronica per creare circuiti integrati miniaturizzati e i BioMEMS sono usati per processare,
manipolare, analizzare, costruire le entità biologiche o chimiche. Trasferiscono alla micro e
nanoscala quelle operazioni che si possono fare in un laboratorio chimico o biologico, quali:



diagnostica nel punto di cura “point of care” (elettroforesi capillare o sensori proteici)
sistemi ad alta produttività “high throughput” (rilevare e sequenziare molecole di DNA e
sequenziare il genoma tramite DNA microarrays)
separazione e cattura cellulare che permettono in un campione eterogeneo cellulare di
identificare la presenza di specifiche cellule
Ci sono poi i dispositivi impiantabili in vivo, che si vedranno meno:






impianti neurali o cocleari che servono per ripristinare funzioni cerebrali o uditive
danneggiate
gli stent cardiovascolari che tengono aperti i vasi per ripristinare la vascolarizzazione del
tessuto cardiaco
sensori del glucosio impiantati nel paziente che rilevano il glucosio in tempo reale e
possono essere interfacciati con rilasci intelligenti e triggered di insulina
farmaci intelligenti
sistemi di monitoraggio da remoto (cerotti in grado di trasmettere informazioni sullo stato
di salute del paziente, comunicando con un sistema sanitario anche a distanza)
pillole intelligenti, sistemi d’indagine
Benefici della nanoscala – Flusso laminare in microfluidica
Si vedono ora degli esempi di sfruttamento dei sistemi microfluidici alla micro e nanoscala per
effettuare operazioni particolari, che hanno interesse in ambito biomedicale. Gli esempi sono presi
da pubblicazioni scientifiche e verranno resi disponibili nel materiale del corso. Sono esempi
concettuali che non hanno un’applicazione pratica immediata ma fanno capire le potenzialità che
questi sistemi possono avere a livello di applicazioni biomedicali.
1) In questo primo esempio è sfruttato il flusso laminare nei microcanali per ottenere gradienti o
separazioni di sostanze di interesse biologico o di cellule. Il design del dispositivo ha 3 o 5 inlet
nei quali viene alimentata la proteina BSA (albumina del siero bovino) in forma normale ed in
forma fluorescente FITC = Fluoresceina isotiocianato; è un modo per colorare con un
colorante fluorescente la proteina. Nel caso a 3 canali si alimenta quindi dal canale in alto la
proteina fluorescente, dal centrale la proteina non fluorescente e da quello in basso di nuovo
la proteina fluorescente. La fluorescenza viene verificata nel canale di raccolta e si trova infatti
solo nelle due porzioni laterali, dimostrando che il pattern viene mantenuto. Questo succede
anche quando si alimenta nei 5 canali alternativamente fluorescente, non fluorescente,
fluorescente, non fluorescente, fluorescente; anche qui nel canale di raccolta si trova la
6
Prochilo/Ricciardi
16 Bionanotecnologie (Ciardelli)
25/03/2022
fluorescenza ai due lati ed al centro mentre nelle regioni laterali no. Si dimostra che il pattern
di alimentazione è mantenuto senza mescolamenti grazie alla laminarità del flusso.
2) Nel secondo esempio, sempre appartenente al lavoro di Takayama pubblicato su PNAS nel
1999, si è passato da maneggiare proteine a maneggiare cellule. Si sono alimentati batteri di
Escherichia Coli dai due canali laterali e mezzo di coltura da solo dall’alimentazione centrale.
Anche qui nel canale di raccolta c’è il mantenimento del pattern: si vedono i batteri sui due
lati ma non al centro. Addirittura questo avviene anche se si hanno alimentazioni contenenti
cellule diverse: nell’immagine a destra sono stati presi eritrociti, Escherichia Coli e di nuovo
eritrociti. Gli eritrociti sono alimentati dai due lati e nel canale al centro si ha l’Escherichia Coli;
questo pattern si ritrova non mescolato nel canale di raccolta.
3) Il terzo esempio fa vedere qualcosa che può avere potenzialmente un’applicazione pratica.
Sono state seminate cellule endoteliali dei vasi sanguigni in modo uniforme sul canale di
raccolta (si endotelizza il canale); successivamente si alimenta da uno dei 3 inlet la soluzione di
marcatura Syto 9, cioè un colorante fluorescente delle cellule. Si vide che solo le cellule
disposte nella porzione superiore nel canale di raccolta venivano marcate, mentre le due
regioni investite dal mezzo di coltura da solo non venivano marcate. Questo a dimostrare che
le cellule che venivano a contatto con la soluzione di staining erano solo quelle vicine al canale
di alimentazione dello staining e non quelle vicine agli altri due canali; ancora una volta non
c’è mescolamento. Questo può permettere di creare pattern di cellule: nell’esperimento
successivo (in figura a destra) si è sostituita la soluzione di marcatura con una soluzione fatta
da tripsina ed EDTA che provoca il distacco delle cellule adese (la tripsina è un enzima che
degrada le proteine di adesione tra le cellule e la superficie). Anche in questo caso fu visto che
7
Prochilo/Ricciardi
16 Bionanotecnologie (Ciardelli)
25/03/2022
si staccavano solo le cellule nella regione superiore mentre le altre che ricevevano solo il
mezzo, e quindi si trovavano adiacenti ai canali 2 e 3 e non al canale 1, rimanevano ben adese.
Si staccavano quindi solo le cellule nella parte superiore del canale. Quindi iniettando la
soluzione che induce il distacco delle cellule nel canale 1 si staccano solo le cellule nella
porzione superiore del canale di raccolta.
4) Qui si vede un esempio preso da un articolo scientifico del 2004 pubblicato su Science. È stato
fatto un separatore microfluidico sfruttando il flusso laminare che si riesce a creare alla
microscala. Utilizzando un sistema microfluidico ed una serie di ostacoli di scala micrometrica,
si possono separare le particelle in un fluido in base alle loro dimensioni.
Quando un flusso laminare incontra un ostacolo succede
che il flusso si biforca intorno all’ostacolo e poi si
ricompone come era inizialmente senza creazione di vortici;
non c’è mescolamento quindi mettendo delle particelle nel
fluido le ritroviamo nella stessa posizione oltre l’ostacolo.
È stato costruito un sistema (fig. A) con separatori in cui si
mettono degli ostacoli ognuno di lunghezza 2λ/3 ad una
distanza λ tra i due centri degli ostacoli e nel “livello”
successivo gli ostacoli sono shiftati di λ/3 rispetto alla
posizione originale nel livello precedente (come se a ogni
livello si spostasse di metà ostacolo verso destra). Il fluido
fluisce, incontra l’ostacolo, lo evita e riparte e così via.
Se si immagina di avere un fluido costituito da 3 componenti
(in fig. B rosa, giallo e azzurro) la componente rosa parte dalla
posizione 1, incontra l’ostacolo e occupa la posizione 3, lo
supera finendo in posizione 2 e infine torna in posizione 1
dopo aver superato due barriere/livelli, alla terza barriera
torna alla posizione originale 1. Per giallo 2-1-3-2 e per azzurro
3-2-1-3. Ritrovano tutte la configurazione di partenza. Se si ha
una particella contenuta ad esempio nel fluido rosa, più piccola
della larghezza della componente stessa, questa di fatto
cambierà posizione insieme alla componente; quindi sarà in
posizione 1-3-2 e tornerà in 1 dopo 3 ostacoli.
8
Prochilo/Ricciardi
16 Bionanotecnologie (Ciardelli)
25/03/2022
Invece una particella più grande (fig. C) della larghezza di
un componente parte nella posizione 2, trova l’ostacolo,
proverà a spostarsi dalla posizione 2 alla 1 ma essendo
troppo grande tenderà a venire spinta di nuovo verso la
posizione originale; quindi tenderà a rimanere ad ogni
ostacolo sempre nella solita posizione e lo stesso farà
quando incontra il terzo ostacolo.
Quindi se si progetta adeguatamente la dimensione, il numero degli ostacoli e la velocità del
flusso si possono separare particelle grandi da quelle piccole in modo selettivo. Questo è
dimostrato con due tipi di particelle colorate con due coloranti fluorescenti (in figura verde
per quella di 400 nm e rosso per quella di 1 micron). La particella rossa di
fatto rimane sempre nella stessa posizione, mentre la verde che è più
piccola viene deviata. All’inizio si ha una certa distanza ed alla fine si ha
una distanza molto maggiore tra le due particelle, sfruttando il flusso
laminare e la dimensione del dispositivo di tipo nanometrico. Le particelle
più piccole di fatto seguono il flusso che viene deviato, mentre quelle più
grandi tentano di seguire il flusso ma subiscono l’ostacolo meccanico che li
riporta in posizione. È come se nell’ esempio 3) si avessero le cellule più
grandi della sezione del canale di raccolta ed a quel punto non si
riuscirebbe a staccarle selettivamente, una parte della cellula si
staccherebbe ed un’altra no, interferendo con le altre regioni. Per quanto
riguarda la deviazione, bisogna mettere un numero di ostacoli/livelli
sufficientemente alto per ottenerla; con pochi ostacoli anche la particella
piccola potrebbe restare nella posizione iniziale.
Benefici della nanoscala – High Throughput screening
La micro e nanoscala permette quindi di creare dei dispositivi che possono far avvenire reazioni
chimiche più velocemente ed analizzare campioni più velocemente avendo a disposizione meno
analita. Questo può avere grande importanza nel “high troughput screening” (screening ad alta
produttività). È come se si facessero tante operazioni di identificazione e reazioni allo stesso
tempo.
Ad esempio nell’ambito del drug discovery (scoperta dei farmaci) è noto che interferire con certi
recettori cellulari può essere una buona terapia per la cura dei tumori e i biologi molecolari
scoprono molto spesso nuovi bersagli da colpire per uccidere le cellule tumorali o impedirne i
processi metabolici. Tuttavia, far diventare questa un’effettiva cura per i tumori non è banale
perché bisogna cercare delle molecole candidate ad interferire con tali bersagli. Da un lato la
biochimica riesce a sintetizzare un grande numero di tali molecole e dall’altro sono noti tanti
bersagli possibili, perciò il numero di esperimenti necessari per testare tutte le molecole su tutti i
bersagli è dato dal prodotto del numero di molecole per il numero di target terapeutici potenziali
ed è estremamente elevato.
9
Prochilo/Ricciardi
16 Bionanotecnologie (Ciardelli)
25/03/2022
Se si hanno tanti target e tante molecole, perché la chimica ne produce tante anche con piccole
differenze dal punto di vista strutturale, e si fa il prodotto si ottiene un numero altissimo di test da
fare. Tra l’altro questi test avvengono in presenza di reagenti e solventi molto puri, perché non ci
si può permettere di sbagliare, e in essi sono impiegati saggi biologici per verificare che colpendo
un certo target si ha effettivamente fatto una modifica di un percorso metabolico. Si ha bisogno
quindi di materiali costosi e di fare tanti esperimenti. Questo non sarebbe economicamente
sostenibile senza le tecnologie “high throughput” in cui si miniaturizzano i volumi, si usano meno
reagenti perché si ha bisogno di quantità minori ed in più le reazioni nei piccoli volumi vanno più
velocemente, quindi si risparmia anche tempo. Questi strumenti sono di grande importanza per le
case farmaceutiche.
Con l’high throughput si può:



fare farmacologia per testare l’azione di farmaci e molecole o scoprirne di nuovi (es. si
possono avere a disposizione anche farmaci non sintetizzati chimicamente ma di origine
naturale) oppure per testare la nocività delle sostanze
applicarlo in genetica per scoprire nuovi target o identificare mutazioni con l’analisi high
throughput del DNA
vedere l’interazione tra le proteine, selezionare primer per iniziare il processo di
amplificazione del DNA con la PCR.
Si possono identificare nuove molecole che regolano processi biologici.
Da questo lavoro si genera una gran mole di dati, quindi servono sistemi automatici di analisi e
strumenti computazionali per andarli a razionalizzare.
Benefici della nanoscala – Miniaturizzazione & high throughput
C’è quindi una spinta verso l’aumento della miniaturizzazione e conseguentemente del numero
degli esperimenti che posso effettuare in contemporanea e velocemente ma ci sono limiti
tecnologici a questa spinta. Si sono già viste prima le dimensioni che permettono di arrivare a
volumi di reazione inferiori al microlitro e in figura si vede il numero di reazioni e quindi di cellette
reattive presenti in un solo plate che si riescono a produrre (si pensi alle memorie dei computer
che sono diventate sempre più piccole, a parità di quantità di dati immagazzinabili). Il numero di
reazioni per chip che si possono fare è dovuto al fatto che volumi molto piccoli sono associati a
poche quantità di liquidi che possono quindi facilmente evaporare, rimanendo a secco; il
maneggiamento dei liquidi per riempire questi recipienti può essere difficoltoso e possono esserci
10
Prochilo/Ricciardi
16 Bionanotecnologie (Ciardelli)
25/03/2022
fenomeni di assorbimento superficiale (la superficie aumenta significativamente rispetto al
volume per volumi piccoli) e quindi si ha bisogno di robot molto precisi ed in certi casi non
esistono ancora robot adeguati a queste operazioni.
Benefici della nanoscala – Riduzione di reagenti e costi
Se è vero che i sistemi microfluidici possono soddisfare la crescente domanda di saggi high
throughput si può aggirare questo problema con la tecnologia della microfluidica a goccia.
Storicamente i saggi si facevano in piastre da cultura cellulare che contenevano 36 o 98 cilindretti
cavi in cui si faceva l’esperimento; in realtà si è poi passato a svolgere le stesse operazioni nei
microcanali (microfluidica
tradizionale di cui si è parlato fino ad
ora). L’idea è passare a sistemi in cui
la regione reattiva è una semplice
goccia di liquido sospesa in un olio
(droplet microfluidics). Questi
sistemi in emulsione permettono di
creare oggetti di dimensione molto
piccola con volumi di nano e
fentolitri perché sono di diametro
del micron o anche minore.
Questo (figura a pag. seguente) è un esempio preso da un articolo di Rossow. I tradizionali saggi
biologici studiano il comportamento di un numero elevato di cellule su substrati 2D e quindi in
ciascuno dei pozzetti (cilindretti citati prima) si ha un numero di cellule molto alto. Di fatto si
ottiene un’indicazione, un comportamento che è la media del comportamento di varie cellule ed
una cellula non è esattamente uguale all’altra, sono comunque organismi viventi con una loro
variabilità. La droplet microfluidic, oltre a superare alcuni limiti tecnologici, permette anche
l’incapsulamento di singole cellule o permette di comporre strutture tridimensionali a partire da
singole cellule con controllo della dimensione della struttura.
11
Prochilo/Ricciardi
16 Bionanotecnologie (Ciardelli)
25/03/2022
Nell’esempio riportato si alimentano cellule da uno dei canali, da un altro si alimenta PEG
polietilenglicole (-CH2-CH2-O-) in arancione a cui sono stati aggiunti gruppi SH che serviranno
dopo; dall’altra parte si alimentano microsfere di microgel di poliglicerolo acrilato (cioè con
l’aggiunta di gruppi acrilici derivanti dall’acido acrilico CH2=CH-COOH di cui serve il doppio
legame). Dalle entrate in basso si va ad alimentare l’olio e si crea l’emulsione. I polimeri in acqua
creano l’emulsione e poi cominciano a mescolarsi tra loro. In regione C (fig. A) si crea l’emulsione
ed in zona D cominciano a reagire tra loro, quindi reagisce l’SH col doppio legame; si creano dei
crosslink formando un gel ancora più strutturato in ciascuna delle goccioline che rimangono
separate perché tra di esse c’è l’olio. Questo gel poi incapsula le cellule. Le cellule sono vive perché
dal saggio Live Dead (fig. G), in cui si aggiunge un colorante che si colora di verde in
corrispondenza delle cellule vive e di rosso in corrispondenza di quelle morte, si vedono pochi spot
rossi rispetto a tutti i verdi.
Quindi questo è l’esempio di un sistema microfluidico per incapsulare cellule e microparticelle di
PEG tiolato (con gruppo SH) e poliglicerolo. Il sistema realizza un’emulsione acqua in olio e si
ottengono delle capsule che contengono cellule vive ed in grado di proliferare. Riducendo la scala
di queste goccioline si può arrivare anche a fare i sistemi single cell dove si analizzano le singole
cellule.
Domanda: Come si varia la scala delle drops e la quantità di contenuto che assorbono?
Non è facile controllare questi due parametri: si può variare la velocità dei flussi, cioè la quantità di
olio che si alimenta rispetto alla quantità di polimeri e cellule che si alimenta; in questo modo si
può regolare in parte la dimensione delle particelle ed in parte il numero di cellule che vanno ad
inserirsi nelle varie gocce.
BIOMEMS – in vivo application
Una curiosità è un oggetto denominato capsula per endoscopia. È una capsula che serve ad
effettuare la gastrocolonscopia in maniera non invasiva. Si ingerisce la pillola, questa attraversa il
tratto digestivo senza venire modificata e quando arriva all’intestino comincia a comunicare con
una fascia messa intorno all’addome che riceve i segnali trasmessi dalla capsula. Si può così vedere
lo stomaco, il colon, l’intestino piccolo, il retto senza dolore e senza sedazione, potendo analizzare
12
Prochilo/Ricciardi
16 Bionanotecnologie (Ciardelli)
25/03/2022
così tutte queste zone. Si ottengono immagini tridimensionali a colori e si possono così fare
diagnosi accurate a seconda della patologia scoperta. L’oggetto è molto piccolo (27mm*11mm) e
consta di una telecamera, luci LED, microchip, batteria ed un trasmettitore con antenna che invia i
segnali all’esterno.
Domanda: Riguardo i microfluidi alla slide
22, come mai dopo tre passaggi il fluido
torna proprio nella configurazione di
partenza? È per via della disposizione
geometrica degli ostacoli?
Si, si sposta tutte le volte di un terzo di
lambda, per come sono spostati gli
ostacoli si ha uno spostamento di un terzo
ogni volta; dopo averlo fatto 3 volte si
torna al punto di prima.
[Filmato https://www.youtube.com/watch?v=mXv-TjLIkZE]
13
Carone/Carrozza
17 Bionanotecnologie (Boffito)
30/03/2022
Tecniche di caratterizzazione di materiali polimerici
Organizzazione delle esercitazioni: sono a gruppi ma i gruppi non sono definiti, si può lavorare anche da soli.
Le esercitazioni consistono nel vedere graficamente come vengono analizzati dei risultati ottenuti applicando
ciò che si è visto dal punto di vista teorico. La prima esercitazione sarà sulla cromatografia ad esclusione
molecolare, la seconda sarà sull’analisi in spettroscopia a risonanza magnetica nucleare, spettroscopia
infrarossa e analisi termica.
Il percorso che si farà è focalizzato sul modo in cui ci si approccia alla caratterizzazione di materiali polimerici.
Sono stati visti i polimeri e come vengono sintetizzati, con delle tecniche di caratterizzazione meccanica, ora
si analizzeranno altre tecniche che permettono di avere delle informazioni sulle proprietà chimiche dei
materiali polimerici. In particolare, permettono di verificare se la sintesi di un materiale polimerico già fatto
in laboratorio è avvenuta con successo, studiare se i materiali subiscono delle degradazioni. Ad esempio, se
si è fatto un trattamento termico, si verifica se il materiale ha mantenuto le caratteristiche originarie o se le
ha cambiate. Si vedranno approcci che permettono di caratterizzare i materiali dal punto di vista delle
proprietà superficiali. Questo è utile quando si ha un substrato e si modifica la superficie ad esempio
decorandola con delle proteine per indurre una certa risposta biologica.
Outilne
•
•
•
▪
▪
▪
▪
Si capisce perché è importante fare questo tipo di caratterizzazioni.
Quali sono le tecniche che si possono usare in base al tipo di informazione che voglio raccogliere.
Ci si focalizza su alcune tecniche, come le tecniche spettroscopiche andando ad approfondire 2
tecniche di elezione che sono:
o Spettroscopia a risonanza magnetica nucleare (NMR).
o Spettroscopia infrarossa (IR).
Si parlerà di tecniche cromatografiche focalizzandosi su:
o Cromatografia ad esclusione molecolare (SEC): tecnica che viene usata per avere
informazioni sulla distribuzione dei pesi molecolari dei materiali polimerici.
Tecniche spettroscopiche:
o Spettroscopia ad effetto fotoelettronico (XPS): rientra in una famiglia a sé stante. È una
tecnica che serve per fare un’analisi superficiale. Restituisce come feedback un’informazione
sulla composizione chimica della superficie dei materiali.
Tecniche di caratterizzazione termica:
o Calorimetria a scansione differenziale (DSC): dà informazione su temperature di transizione
vetrosa, temperature di cristallizzazione e di fusione.
o Analisi termogravimetrica (TGA): permette di studiare i processi di degradazione termica,
con la degradazione indotta dall’aumento della temperatura.
Si introduce il concetto di degradabilità dei materiali polimerici, preparatorio in vista
dell’esercitazione n. 3, focalizzata su questo.
L’importanza di caratterizzare i biomateriali
Ci si focalizza sul perché è importante svolgere un’analisi di caratterizzazione chimica e termica dei materiali
polimerici. In particolare, in questa lezione si analizza la prima tecnica spettroscopica ossia l’analisi in
spettroscopia in risonanza magnetica nucleare.
Perché è importante fare caratterizzazione di materiali polimerici?
1
Carone/Carrozza
17 Bionanotecnologie (Boffito)
30/03/2022
Ci si inserisce in un contesto di una grande famiglia di materiali, i polimeri, che negli ultimi decenni hanno
attratto molta attenzione nel settore biomedicale.
I motivi principali per cui questa famiglia ha attratto interesse sono:
➢ Una buona parte dei polimeri presenta versatilità chimica: esistono ad esempio i polimeri a blocchi
in cui, in base ai blocchi selezionati, si può ottenere in uscita da un processo di sintesi dei materiali
con prestazioni completamente differenti. La versatilità chimica viene sfruttata per modulare le
prestazioni dei materiali che si usano. In ingegneria tissutale questo fa sì che si possa ottimizzare un
processo di sintesi di un polimero in modo tale da ottenere un materiale con prestazioni meccaniche
più adatte. Ad esempio per applicazioni nell’ingegneria dei tessuti soft, dove si ha bisogno di elevata
elasticità oppure dall’altra parte si può ingegnerizzare polimeri per applicazioni in hard tissue
engineering quindi nell’ingegneria dei tessuti ossei.
➢ Altra caratteristica che accomuna i polimeri è la biocompatibilità.
➢ La biodegradabilità modulabile: a seconda dei monomeri, dei blocchi, che si hanno lungo la catena
polimerica si può modulare la cinetica di degradazione del materiale e si possono avere dei polimeri
biostabili cioè polimeri che non incorrono in degradazione. Dal punto di vista della biodegradabilità,
in base ai monomeri che si hanno lungo la catena si può avere dei polimeri che degradano con tempi
più o meno lunghi in base alla necessità dell’applicazione prevista. Ad esempio, se si vuole un
polimero che degrada più velocemente si può includere nella catena polimerica dei blocchi più
facilmente degradabili ad esempio blocchi più suscettibili ad una degradazione da parte di specifici
enzimi.
➢ Facile funzionalizzazione (sia in massa che in superficie):
▪
Quando si parla di funzionalizzazione in massa si parla di un processo di funzionalizzazione
che avviene a carico delle catene polimeriche, ad esempio si può fare una funzionalizzazione
in massa anche durante la sintesi di un polimero. Facendo un polimero multiblocco si
possono selezionare opportunamente i blocchi in modo tale che lungo le catene si abbiano
dei motivi ben definiti. Esistono processi di sintesi che permettono di includere in catena
delle sequenze peptidiche quindi in uscita si avranno catene polimeriche con specifici motivi
amminoacidici che permettono di traghettare una specifica risposta biologica piuttosto che
modulare la degradabilità.
▪
Quando si parla di funzionalizzazione in superficie si fa riferimento a tutti i processi che
vanno a modificare la superficie di un substrato polimerico. Non si va a modificare tutte le
catene in massa ma solo la componente superficiale del substrato che si fa su uno scaffold o
una matrice che è stata già fabbricata. Sfruttando questa versatilità chimica si può fare in
modo che sulla superficie dei substrati ci siano dei gruppi funzionali che si possono usare per
attaccare sequenze peptidiche o proteine. Tipicamente i gruppi funzionali che si utilizzano
nelle modifiche superficiali sono o gruppi carbossilici o gruppi amminici. Si può fare in modo
di averli già sfruttando la versatilità chimica della sintesi polimerica o si può in alternativa
aggiungerli durante il processo di funzionalizzazione.
➢ Proprietà termiche e meccaniche altamente modulabili.
Tutto parte dalla versatilità chimica, da cui deriva tutto ciò che è stato elencato.
È quindi fondamentale andare a conoscere in modo approfondito le proprietà strutturali e molecolari dei
materiali polimerici in modo che si possa sfruttare la loro versatilità chimica per fare una ingegnerizzazione
ad-hoc del polimero che voglio utilizzare per una specifica ingegnerizzazione. Molto spesso la conoscenza
2
Carone/Carrozza
17 Bionanotecnologie (Boffito)
30/03/2022
delle proprietà strutturali alla nanoscala e delle proprietà chimiche permette di interpretare le proprietà che
si visualizzano alla macro-scala. Osservando una certa proprietà meccanica, conoscendo le caratteristiche
chimico-strutturali alla nanoscala si riesce a interpretare e a giustificare quello si osserva alla macro-scala. Lo
stesso vale in termini di risposte biologiche post-impianto.
Per poter conoscere le proprietà chimico-strutturali è fondamentale fare riferimento a delle tecniche di
analisi che siano riproducibili, rapide, accurate e sensibili. Questo anche nell’ottica di aumentare la
riproducibilità di quello che si fa e far sì che, ragionando a livello di ricerca in laboratorio, quello che si fa
possa essere replicato da altri e che si possano fare le stesse caratterizzazioni che sono state svolte da me
ottenendo gli stessi risultati. Quindi nell’ottica di espandere la conoscenza da altre parti. Se si utilizzano delle
tecniche riconosciute, accurate e sufficientemente sensibili quello che si fa personalmente può essere svolto
da qualcun altro da un’altra parte e questo aumenta la confrontabilità dei risultati che si ottengono.
Tecniche di caratterizzazione dei polimeri
Si vedono le principali categorie di tecniche utilizzate per la caratterizzazione di materiali polimerici:
❖ TECNICHE SPETTROSCOPICHE -> Permettono di ottenere delle informazioni sulle caratteristiche
chimiche dei materiali e permettono anche di avere informazioni sulle interazioni che intercorrono a
livello molecolare all’interno delle catene polimeriche del materiale che si sta analizzando. Ad
esempio, nella spettroscopia NMR è possibile anche ottenere informazioni sull’intorno chimico di un
nucleo atomico. Non si hanno solo informazioni su ciò che analizzo, ad esempio un protone, ma
anche informazione su cosa c’è attorno a lui. A seconda della tecnica spettroscopica usata si ha
possibilità di avere informazioni su un singolo materiale, sulle informazioni che intercorrono
all’interno di quel materiale tra le catene polimeriche, sull’environment chimico dei nuclei atomici e
su eventuali interazioni che intercorrono tra gruppi funzionali pendenti sulle catene.
❖ TECNICHE DI CARATTERIZZAZIONE SUPERFICIALE -> Sono tecniche che forniscono informazioni sulle
caratteristiche superficiali di biomateriali e quando si parla di caratteristiche superficiali si parla sia
di caratteristiche strutturale morfologica ma anche di caratteristiche della composizione chimica
della superficie di un biomateriale.
❖ TECNICHE DI CARATTERIZZAZIONE TERMICA -> Danno informazioni sulle proprietà termiche di un
materiale. Quando si parla di proprietà termiche si fa riferimento a informazioni su come un
materiale si comporta al variare delle temperature: temperatura di fusione, di cristallizzazione e
temperatura di transizione vetrosa. Si possono avere informazione sul grado di cristallinità del
materiale. Studiare il comportamento termico implica anche studiare la degradabilità termica di un
materiale e la sua stabilità a certe temperature. Questo è importante perché se si sviluppano nuovi
materiali e si vuole processare allo stato fuso, per esempio con la tecnica di prototipazione rapida
che sfrutta la fusione del materiale. Ma se il materiale è nuovo, non è mai stato fatto, è necessario
capire a che temperatura fonde per aver un’idea di cosa settare sullo strumento. Al tempo stesso si
deve capire se il materiale mantenuto per tanto tempo ad una certa temperatura si degrada. La
caratterizzazione termica al di là della ricerca di base ha delle implicazioni quando si vuole processare
un polimero allo stato fuso.
❖ TECNICHE DI CARATTERIZZAZIONE MECCANICA -> Fornisce informazioni di tipo meccanico dei
materiali che vengono sottoposti ad un certo tipo di sollecitazione. Si possono avere informazioni sul
comportamento a trazione, a compressione oppure a fatica o anche sotto applicazione di
sollecitazioni di tipo sinusoidale.
Ripartendo da queste classificazioni si vedono le principali tecniche che appartengono a ciascuna famiglia.
3
Carone/Carrozza
17 Bionanotecnologie (Boffito)
30/03/2022
❖ TECNICHE SPETTROSCOPICHE:
▪
Spettroscopia infrarossa (IR).
▪
Spettroscopia fotoelettronica a raggi X (XPS): è una tecnica che va a fare un’analisi
superficiale del substrato che si analizza dando in uscita informazioni sulla sua composizione
dal punto di vista chimico. Questa è la tecnica di elezione quando si fanno delle modifiche
superficiali. Se si ha un substrato e lo si modifica in superficie andando a decorarlo o facendo
un rivestimento ad esempio con una proteina, confrontando il campione prima e il campione
dopo con questa tecnica ci si rende conto che la composizione chimica della superficie del
materiale è cambiata quindi si può verificare se il rivestimento si è formato con successo. Se
il rivestimento è legato covalentemente al substrato con la tecnica XPS si riesce a verificare
la formazione del legame covalente di cui ci si aspettava la creazione tra la proteina e il
substrato polimerico.
▪
Spettroscopia in risonanza magnetica nucleare (NMR).
▪
Spettroscopia RAMAN: va ad analizzare dei fenomeni di scattering di una radiazione
elettromagnetica. Una radiazione elettromagnetica va a colpire il campione, viene scatterata
e si va ad analizzare la radiazione dopo che è avvenuta questa interazione con il campione.
Non verrà studiata nel dettaglio, basta ricordare che va ad analizzare dei fenomeni di
scattering di radiazione elettromagnetiche che incidono sul campione e vengono scatterate.
▪
Spettroscopia a diffrazione a raggi X (XRD) è una tecnica che permette di avere delle
informazioni sulla struttura cristallina ei materiali.
❖ TECNICHE DI CARATTERIZZAZIONE SUPERFICIALE:
A questa categoria appartengono tutte le ottiche, che a diverse scale e con diversi gradi di risoluzione
permettono di avere informazioni sulle caratteristiche superficiali e sulla morfologia del substrato che si
sta analizzando:
▪
Microscopia ottica.
▪
Microscopia a scansione elettronica (SEM).
▪
Microscopia a trasmissione elettronica (TEM).
▪
Microscopia a forza atomica (AFM).
▪
Angolo di contatto: si utilizza se si vuole fare caratterizzazione superficiale andando ad
analizzare la bagnabilità della superficie. Va a depositare una goccia sulla superficie del
substrato, normalmente si utilizza acqua (ciò che è più simile ai fluidi biologici), e tramite
delle ottiche si va a fotografare la morfologia che la goccia d’acqua di volume noto assuma
nel momento in cui si deposita gentilmente sul substrato. In base alla geometria della goccia,
tramite dei software, si riesce a determinare l’angolo all’interfaccia goccia-substrato, e ad
avere informazioni sulla struttura più idrofobica o idrofilica del materiale. Angoli di contatto
superiori a 90° identificano substrati idrofobici, sotto i 90° i substrati vengono definiti
idrofilici. Più l’angolo di contatto è piccolo, più il substrato avrà proprietà idrofiliche. Questo
tipo di analisi si utilizza anche per le modifiche superficiali perché durante la modifica
superficiale ci si aspetta che la bagnabilità dei substrati possa cambiare. Se si ha come
substrato un substrato in policaprolattone (PCL), ossia un polimero sintetico altamente
idrofobico; se si mette una goccia su di esso la goccia tenderà a restare tondeggiante cioè a
minimizzare la superficie di contatto con il substrato idrofobico e si avranno angoli superiori
4
Carone/Carrozza
17 Bionanotecnologie (Boffito)
30/03/2022
a 90°. Facendo una modifica superficiale del substrato di policaprolattone, aggiungendo una
proteina come collagene e cheratina, ci si aspetta che la bagnabilità del substrato cambi. In
particolare, che aumenti l’idrofilicità così quando si andrà a depositare la goccia, essa tenderà
ad appiccicarsi sul substrato. Non manterrà più la formo tonda ma andrà ad aderire al
substrato, a massimizzare l’area di contatto con il substrato. L’angolo di contatto si abbassa.
Questa è una prova indiretta che si è formato un coating sul policaprolattone.
❖ TECNICHE DI CARATTERIZZAZIONE TERMICA:
▪
Calorimetria a scansione differenziale (DSC) per avere informazioni di cristallinità,
temperatura di fusione, temperatura di cristallizzazione, temperatura di transizione
vetrosa.
▪
Analisi termica dinamo-meccanica (DMTA).
▪
Analisi termogravimetrica (TGA): per avere informazioni sulla stabilità termica quindi sul
fatto che il polimero sia più o meno stabile ad una certa temperatura e sulla cinetica con
cui avviene una certa degradazione termica con l’aumentare della temperatura. È
un’analisi che si può fare a temperatura costante e in questo modo si vede se il polimero
si degrada nel tempo o a temperature variabili per capire a che temperatura inizia la
degradazione e si avviene correttamente.
❖ TECNICHE DI CARATTERIZZAZIONE MECCANICA:
▪
Prove di trazione.
▪
Prove di compressione.
▪
Prove di fatica.
▪
Prove di creep: sono prove dove si va a monitorare la deformazione del materiale nel tempo.
Si applica una deformazione costante e poi si monitora cosa succede nel tempo. Ad esempio
con le prove di creep si può studiare se le catene polimeriche tendono a riarrangiarsi, se
sottoposte a una sollecitazione. Immaginando un polimero come un gomitolo di catene, se
lo si sollecita con una deformazione costante nel campo elastico, lo si tira leggermente, il
gomitolo inizierà inizialmente a tirarsi ma poi progressivamente le catene nel gomitolo
continueranno a sentire la sollecitazione data e a orientarsi nella direzione della
sollecitazione. Anche se non si sta ancora tirando, il campione cambierà. Si vede come si
modifica il campione con il suo allungamento nel tempo.
▪
Analisi termica dinamico-meccanica (DMTA) è messa in 2 categorie, sia tra la
caratterizzazione termica che meccanica. Come dice il termine stesso è un’analisi termica e
meccanica. Permette di avere informazioni su come cambiano le proprietà meccaniche al
variare della temperatura. È una tecnica che si può sfruttare per vedere temperature di
transizione vetrosa. Se la transizione vetrosa è ad una temperatura bassa a volte con la DSC
non si vede perché non si riesce ad andare sufficientemente in basso con la temperatura
allora la si vede con la DMTA. La DMTA è un’analisi termodinamico meccanica perché studia
come cambiano le proprietà meccaniche ad una temperatura costante o al variare della
temperatura.
5
Carone/Carrozza
17 Bionanotecnologie (Boffito)
30/03/2022
Caratterizzazione chimico-strutturale
Ci si focalizza sulle tecniche spettroscopiche. Sono tecniche che permettono di:
▪
Studiare le caratteristiche chimiche di un biomateriale.
Ad esempio, possono essere utilizzate per verificare se la sintesi del biomateriale è avvenuta con
successo, e se effettivamente si sono formati i legami chimici di cui si era prevista la formazione.
▪
Verificare se ci sono delle impurezze, non tutte ma alcune permettono di farlo.
▪
Studiare le interazioni che avvengono a livello molecolare tra le catene polimeriche ed eventuali
gruppi funzionali che si hanno lungo le catene.
Le tecniche principalmente utilizzate a questo scopo sono:
➢ SPETTROSCOPIA A RISONANZA MAGNETICA NUCLEARE (NMR).
➢ SPETTROSCOPIA RAMAN.
➢ SPETTROSCOPIA INFRAROSSA (IR).
Ciò che accomuna queste tecniche è il fatto di essere non invasive. Si tratta di analisi che non alterano le
proprietà dei materiali e che consentono l’esecuzione di analisi prolungate nel tempo; i tempi di analisi sono
relativamente corti ma si riesce ad analizzare più volte lo stesso campione andando a mediare i risultati in
modo tale da ottenere un segnale con un risultato che è il più pulito possibile.
Non alterando le proprietà dei materiali, in uscita dall’analisi, il campione può essere utilizzato per svolgere
altro. Un setup dell’analisi IR, cioè della spettroscopia infrarossa, permette di analizzare il campione senza
fargli nulla e poi usarlo senza buttarlo.
Tecniche spettroscopiche
Alla base di tutte queste tecniche c’è lo studio delle interazioni che intercorrono tra il campione che si sta
analizzando e radiazioni elettromagnetiche. A seconda della natura della radiazione elettromagnetica che
utilizzo si rientra in un’analisi piuttosto che un’altra e in uscita si avranno informazioni differenti e con un
grado di dettaglio differente. Indipendentemente dalla caratteristica di questa radiazione elettromagnetica
che si utilizza, si hanno informazioni sulla struttura del campione cioè sulla struttura della materia, sul
microambiente che lo circonda e sulla chimica molecolare.
L’idea è quella di avere il sample, il campione, che viene colpito con una radiazione elettromagnetica. Nel
momento in cui la radiazione elettromagnetica colpisce il campione avranno luogo delle interazioni tra
radiazione e campione quindi in uscita si avrà un segnale prodotto proprio da questa interazione avvenuta
tra campione e radiazione elettromagnetica.
Questo segnale viene letto da
uno spettrometro che va ad
analizzarlo e rielaborarlo dando
in uscita uno spettro. Dall’analisi
dello spettro si ottengono le
informazioni
elencate
precedentemente.
Si sfrutta l’interazione tra la
materia e
la radiazione
elettromagnetica per avere in
uscita informazioni sulle proprietà chimiche del campione analizzato.
6
Carone/Carrozza
17 Bionanotecnologie (Boffito)
30/03/2022
A seconda della natura della radiazione elettromagnetica si hanno delle analisi spettroscopiche differenti.
Nelle tecniche spettroscopiche si trovano tante tecniche di analisi differenti a seconda della radiazione
elettromagnetica che si utilizza. Se si
considera tutto lo spettro delle radiazioni
elettromagnetiche, a seconda di dove vado a
selezionare la radiazione si hanno in uscita
tecniche spettroscopiche differenti.
Quando si utilizza una radiazione
elettromagnetica nel campo delle onde
radio, si conduce un’analisi di spettroscopia
di risonanza magnetica nucleare (NMR). Se si
passa alle microonde, si utilizza una
spettroscopia EPR che sta per risonanza
paramagnetica elettronica. (non verrà
approfondita,
usa
una
radiazione
elettromagnetica nel campo delle microonde. Viene utilizzata per individuare e caratterizzare delle specie
chimiche con uno o più elettroni spaiati. Per esempio, viene utilizzata quando vengono svolte delle reazioni
radicaliche per capire se effettivamente si è formato il radicale di cui ci si aspetta la formazione.)
Andando avanti si entra nel campo dell’infrarosso la spettroscopia che si utilizza è la spettroscopia infrarossa
(IR). Quando si arriva al visibile e all’UV la tecnica è la spettroscopia UV-Visibile, va a studiare le interazioni
che intercorrono tra il campione e radiazioni nel campo dell’UV o dell’infrarosso.
Spostandosi ancora si arriva nel campo dei raggi X e la spettroscopia che utilizza queste radiazioni è la
spettroscopia XRD cioè la spettroscopia a diffrazione a raggi X, permette di avere informazioni sulla
composizione cristallina del campione che si sta andando ad analizzare.
Infine, abbassandosi ancora in energia, si arriva nel campo dei raggi gamma in cui la tecnica spettroscopica
che utilizza questo campo è la spettroscopia Mossbauer, non viene utilizzata nella chimica organica ma nella
chimica inorganica. Funziona in maniera analoga a quello che si vede per l’NMR ma si va a considerare
componenti inorganici come il Ferro. È un’analisi spettroscopica che permette di identificare la presenza
all’interno di un campione che viene analizzato di elementi come Ferro, Nichel, Zinco e Argento; viene
applicata prevalentemente nella chimica inorganica piuttosto che nella chimica organica. Se si usa per la
chimica organica è perché ad esempio si vuole vedere se nel campione ci sono delle contaminazioni di
elementi inorganici come la contaminazione del ferro.
A seconda di dove capito nello
spettro
delle
radiazioni
elettromagnetiche si hanno
tecniche
spettroscopiche
diverse e diverse tipologie di
interazioni che intercorrono
tra il campione e la radiazione
elettromagnetica.
Se sono nel campo dei raggi X, quindi si utilizza la spettroscopia XRD, il tipo di interazione è un’interazione di
diffrazione. Si ha una radiazione elettromagnetica che colpisce il campione, viene diffratta e si va a studiare
la diffrazione che si produce nel momento in cui la diffrazione va ad incidere sul substrato.
7
Carone/Carrozza
17 Bionanotecnologie (Boffito)
30/03/2022
Nel campo dell’ultravioletto il tipo di interazioni / transizioni che avvengono sono transizioni di tipo
elettronico perché l’interazione della radiazione con il campione va a produrre delle transizioni tra gli
elettroni; quindi, sono transizioni a carico dei livelli energetici degli elettroni. Lo stesso avviene anche nel
campo del visibile.
Nel campo dell’infrarosso le transizioni che avvengono sono di tipo vibrazionale cioè si hanno fenomeni di
vibrazione di un nucleo rispetto alla sua posizione di equilibro. Lo spettro della spettroscopia a infrarosso si
genera per effetto delle vibrazioni e in base a dove i segnali vanno a comparire nello spettro si può identificare
cosa è vibrato e in che modo è vibrato. Questo perché i nuclei possono vibrare in modo differente a seconda
della lunghezza d’onda della radiazione che va a colpirlo all’interno del campo dell’infrarosso.
Se sono nella regione delle microonde le transizioni sono di tipo rotazionale. Studio fenomeni di rotazione
dell’intera molecola.
Se sono nel campo delle onde radio in cui avviene la spettroscopia NMR avvengono delle transizioni di tipo
nucleare (non riportato in figura). Si analizzano dei fenomeni che avvengono a livello dei nuclei atomici.
Cosa studia la spettroscopia?
A seconda di dove capito e in base al tipo di transizioni che avvengono si possono avere delle tecniche di
spettroscopia ad assorbimento, di emissione o di scattering.
▪
Spettroscopia ad assorbimento:
A questa categoria appartengono la spettroscopia NMR, spettroscopia infrarossa e la spettroscopia
UV-Visibile. Si ha una radiazione elettromagnetica che colpisce il campione e che viene parzialmente
assorbita. Si va a studiare cosa succede alla radiazione incidente per effetto dell’interazione e dei
fenomeni di assorbimento che avvengono. Una parte dell’energia della radiazione viene assorbita
dal campione per effetto delle transizioni.
▪
Spettroscopia di emissione:
Spettroscopia in cui atomi o molecole vengono eccitati e per effetto di questi fenomeni di eccitazione
passano a stati energetici più elevati. Quello che studio è ciò che viene poi emesso nel momento in
cui si ha la transizione da questi stati energetici eccitati più elevati o stati energetici di equilibrio. A
questa categoria appartiene ad esempio la spettroscopia in fluorescenza. Si studia ciò che viene
emesso dal campione per effetto di un’eccitazione.
▪
Spettroscopie di scattering:
Sono quelle in cui si studia come una radiazione incidente viene scatterata. Si sono viste tecniche in
cui una radiazione incidente viene riflessa/rifratta/scatterata sul campione. A questa categoria
appartengono la spettroscopia Raman e la XRD.
Spettroscopia in risonanza magnetica nucleare (NMR)
Gli strumenti NMR sono molto costosi e molto
ingombranti, in foto si visualizza un tubo che è parte
dello strumento NMR. È possibile visualizzare in
figura la zona in cui avviene l’analisi in cui si inserisce
il campione di piccole dimensioni a sua volta inserito
in un tubicino. C’è anche necessità di una grossa
potenza di calcolo. I segnali registrati sono molto
complessi essendo frutto di tante analisi dello stesso
campione e devono essere tradotti in uno spettro e
mediati. Sono segnali in alcuni casi anche molto
8
Carone/Carrozza
17 Bionanotecnologie (Boffito)
30/03/2022
rumorosi per questo è necessaria un’elevata potenza di calcolo. In figura si intravede una scatola che contiene
tutta la parte di calcolo, di trasformazione dei dati grezzi in uno spettro analizzabile. È uno strumento
complesso e spesso si ha una persona dedicata all’uso di questo strumento. È costoso, complicato da
interpretare e ha bisogno di molta attenzione e manutenzione preventiva.
A cosa serve?
È una tecnica di analisi standard di polimeri che permette di caratterizzare le molecole dal punto di vista
chimico, identificandone o determinandone la struttura chimica a livello molecolare. Da chimici dato uno
spettro NMR, analizzando, si potrebbe risalire alla struttura chimica delle catene del campione. Da
bioingegneri questa tecnica si utilizza per verificare se si ha ciò che ci si aspettava o se sono state fatte delle
modifiche al materiale; serve per verificare che le modifiche siano avvenute con successo.
Come tipo di analisi è un’analisi che si presta ad essere sia qualitativa che quantitativa.
-
Qualitativa dal punto di vista dello spettro, che si presenta con una linea di base e tanti picchi.
Dall’analisi dello spettro qualitativamente si può attribuire ogni picco ad una certa quota. Questo si
fa andando a confrontare la natura e la posizione del picco con delle tabelle che mi dicono dove ci si
aspetta che ogni nucleo dia un segnale in base al proprio environment chimico. Si registra lo spettro,
lo si confronta con delle tabelle e dalle tabelle si ha un’informazione su dove i nuclei atomici danno
segnale in base al loro environment chimico. Si riesce a verificare ad esempio da questo confronto
se effettivamente lo spettro del campione analizzato contiene picchi di cui ci si aspetta la presenza.
Esempio: sintesi del poliuretano. Si sintetizza il poliuretano e si vede se effettivamente è quello che
si vuole con NMR. Qualitativamente si riesce a dire se si ha ciò che ci si aspetta dal confronto spettro
– tabelle.
-
Quantitativa perché l’area sottesa ai picchi è indicativa di quanto quella specifica entità chimica è
presente all’interno del campione. Questo fa si che se è stata fatta una modifica in massa di un
materiale tramite l’NMR si riesce a quantificare quello che si è attaccato.
È un’analisi che, dato l’elevato grado di risoluzione e sensibilità si presta ad essere qualitativa e quantitativa.
Si vedrà che la spettroscopia infrarossa non è quantitativa ma solo qualitativa.
Come funziona, cosa si va a studiare? Si studiano le relazioni che intercorrono tra radiazioni nel campo della
radiofrequenza e quini tra i 4 e i 900 MHz con il campione. Più nello specifico si analizzano le relazioni che
intercorrono tra la radiazione e dei nuclei atomici specifici presenti all’interno del campione.
Si parla di nuclei atomici specifici perché non tutti i nuclei atomici possono interagire con la radiazione
elettromagnetica nel campo della radiofrequenza. Inoltre, quando si fa analisi NMR si dice allo strumento
qual è il nucleo atomico che si vuole analizzare tra quelli possibili. Ogni volta che si fa analisi NMR si definisce
che tipo di nucleo atomico si vuole analizzare e di cui si vuole vedere le interazioni che intercorrono tra il
nucleo e la radiazione elettromagnetica. Si parla di NRM ma ne esistono tante tipologie in base al nucleo
atomico che si prende in esame.
9
Carone/Carrozza
17 Bionanotecnologie (Boffito)
30/03/2022
Quando si fa questo tipo di analisi?
Dopo che il campione è stato immerso all’interno di un campo magnetico, per questo motivo si chiama
spettroscopia in risonanza magnetica nucleare. Idealmente si ha un campione sottoposto a un processo di
magnetizzazione all’interno di un campo magnetico. Una volta applicato questo processo di magnetizzazione
si va a colpire il campione con la radiazione elettromagnetica nel campo delle radiofrequenze e lo strumento
analizza come il campione interagisce con questa radiazione. Si analizzano le transizioni nucleari che
avvengono a carico del nucleo atomico che si è deciso di analizzare.
Perché non tutti i nuclei atomici possono essere analizzati con NMR?
Perché non tutti sono sensibili al processo di magnetizzazione. Ciò che non risente del processo di
magnetizzazione non si può andare ad analizzare con la tecnica.
È una spettroscopia di assorbimento, analizza transizioni nucleari cioè a carico dei nuclei atomici non degli
elettroni. È qualitativa e quantitativa.
Quali sono i nuclei atomici che si possono analizzare con questa tecnica?
Tutti quelli che hanno un momento angola nucleare. Appartengono a questa categoria tutti i nuclei atomici
che hanno un numero dispari di protoni, un numero dispari di neutroni o entrambe le cose. Il fatto di avere
un numero dispari di protoni, neutroni o entrambi fa si che questi nuclei atomici siano in grado di ruotare
attorno al proprio asse nucleare (spin). Il fatto di poter ruotare attorno a questo asse fa si che questi nuclei
abbiano un momento angolare nucleare e di conseguenza, proprio perché hanno questo vettore momento
angolare nucleare, questi nuclei sono responsivi nel momento in cui si vanno a inserire all’interno di un
campo magnetico; il campo magnetico va a perturbarli. Si va a studiare cosa attua la radiazione
elettromagnetica su questi nuclei atomici che sono stati perturbati con la magnetizzazione.
Il vettore momento angolare è caratterizzato da un numero
che è il numero quantico di spin nucleare (I) noto, tabellato,
dal quale si ricava quanti orientamenti il vettore può
assumere nel momento in cui il campione viene inserito
all’interno di un campo magnetico.
Per ogni nucleo atomico si ha un valore di I ossia il numero
quantico di spin nucleare. Noto I si può calcolare quanti
orientamenti il vettore può assumere. La formula che
determina quanti orientamenti può assumere il vettore è la
seguente: 𝟐𝑰 + 𝟏.
Se si ha un nucleo per cui I=0, cioè non appartiene alle categorie viste, applicando la formula si ottiene 1. Vuol
dire che il vettore momento angolare nucleare può avere solo una direzione. Se si inserisce all’interno di un
campo magnetico rimane quello che è, non viene perturbato dal campo magnetico.
Dove I è diverso da 0, si ottiene un numero diverso di orientamenti possibili che può assumere il vettore
momento angolare nucleare. Questo implica che nel momento in cui il campione viene inserito all’interno
del campo magnetico questo va a perturbare gli orientamenti dei vettori momento angolare nucleare dello
specifico nucleo che si sta analizzando.
In sostanza, non tutti i nuclei atomici sono visibili all’NMR per questo motivo.
10
Carone/Carrozza
17 Bionanotecnologie (Boffito)
30/03/2022
Se si considera il Carbonio 12 (12C), esso ha I=0 perché ha lo stesso numero di protoni e neutroni questo
carbonio non lo si può vedere con l’NMR perché non è responsivo. Lo stesso vale per l’Ossigeno 16 (16O), non
si può vedere.
Analisi NMR fatta più frequentemente: NMR protonico per vedere il protone (1H), isotopo 13 del carbonio
(13C) ha un numero quantico di spin I=1,5 e applicando la formula si ottiene 2. Ciò vuol dire che il vettore
momento angolare nucleare può assumere 2 orientamenti nel momento in cui viene magnetizzato.
L’ultima colonna della tabella dà informazione dell’abbondanza naturale dei diversi isotopi. L’abbondanza
naturale, in percentuale, dà un’idea di quanto l’isotopo è presente in natura. Più un isotopo è presente in
natura, più ci si aspetta di avere tanti nuclei che rispondono e interagiscono con la radiazione
elettromagnetica durante l’analisi del campione. Meno è abbondante in natura l’isotopo, minore sarà il
numero di nuclei che rispondono durante l’analisi.
A seconda del tipo di analisi NMR che si fa e all’abbondanza naturale del nucleo atomico che si sta analizzando
si ottengono spettri più è meno definiti, più o meno puliti.
Se si analizza il Protone, avendo un’abbondanza così elevata si hanno tanti nuclei che contribuiscono a
formare il segnale e ci si aspetta un segnale ben delineato e ben pulito.
Se si analizza il Carbonio 13 il numero di nuclei atomici che contribuiscono a creare il segnale è piccolo. In
questo caso i segnali sono più rumorosi, meno definiti e più bassi in altezza dal momento che l’area sottesa
e quindi anche l’altezza del picco è informativa sulla quantità dell’entità del campione.
Come si risolve questa problematica? Non si riesce completamente ma si fanno tante scansioni. Queste analisi
sono relativamente veloci quindi possono essere svolte in maniera ripetitiva sullo stesso campione più volte.
Più si fanno scansioni, più si analizza un certo campione più volte, più aumenta la quantità di segnali di cui si
fa la media (questo viene fatto in modo automatico dallo strumento), più il campione si pulisce. Se si ha un
rumore di fondo o un segnale sporco, quando si va a mediarlo si va a ripulirlo.
Si noti che facendo l’analisi al Protone non si ha necessità di fare tante scansioni, perché l’abbondanza
naturale è elevata, al massimo vengono svolte 12 scansioni che si eseguono in una decina di minuti.
Facendo l’analisi al Carbonio 13 si ha bisogno di più scansioni al punto che queste analisi spesso si fanno
andare di notte perché vengono svolte 1024 scansioni.
Un altro elemento su cui si può lavorare è la concentrazione del campione. I campioni NMR tipicamente sono
campioni allo stato liquido, anche se esistono altri tipi di NMR che utilizzano campioni allo stato solido ci si
sofferma sul metodo tradizionale. I campioni sono allo stato liquido, si prende una certa quantità del
materiale e si solubilizza in un solvente. Se si vuole aumentare la qualità del segnale si può aumentare la
concentrazione del campione ossia mettere più materiale. Sugli isotopi che hanno abbondanza naturale più
bassa per aumentare la qualità degli spettri si può aumentare la concentrazione del campione o comunque
di default si fanno molte più scansioni rispetto a quelle che si fanno con gli isotopi con abbondanza naturale
maggiore.
Cosa succede durante l’analisi? Si parte dal campione sottoposto ad una magnetizzazione e poi si va ad
analizzare le interazioni che intercorrono tra il campione magnetizzato e la radiazione elettromagnetica nel
campo delle radiofrequenze.
Idealmente succede che si ha il campione non sollecitato in alcun modo in cui i nuclei atomici; in particolare
in questo caso sono orientati in maniera del tutto casuale. Non c’è nulla che induce i vettori del momento
angolare nucleare a orientarsi in una certa direzione.
11
Carone/Carrozza
17 Bionanotecnologie (Boffito)
30/03/2022
Questo è lo scenario che si ha su nuclei il cui spin vale ½ come il Protone e il Carbonio 13. Se lo spin vale
un mezzo vuol dire che si possono avere 2 possibili orientamenti del vettore momento angolare nucleare.
Nel momento in cui si applica un campo magnetico dall’esterno, noto come 𝐵0 e che ha una certa direzione,
si ha che i vettori del momento angolare nucleare tenderanno ad orientarsi parallelamente alla direzione del
campo magnetico applicato dall’esterno. In realtà alcuni hanno la freccetta del momento del vettore diretta
nello stesso verso del campo magnetico applicato, mentre altri avranno il vettore applicato nel verso
opposto. Questo è lo scenario nel caso in cui ci siano solo 2 orientamenti possibili. Alla fine del processo di
magnetizzazione si hanno i vettori che si sono orientati parallelamente alla direzione del campo magnetico
applicato dall’esterno, alcuni avranno lo stesso verso altri verso opposto. A questo punto il campione, quindi
i nuclei, vengono irraggiati/colpiti da una radiazione elettromagnetica nel campo delle radiofrequenze.
Succede che gli stati ad energia più bassa tenderanno ad assorbire una parte dell’energia portata dalla
radiazione elettromagnetica passando ad uno stato energetico più alto. In pratica succede che i vettori
azzurri, essendo orientati nello stesso verso del campo applicato dall’esterno, saranno ad uno stato
energetico più basso, assorbiranno una parte dell’energia della radiazione elettromagnetica e ruoteranno
verso il basso assumendo la configurazione delle frecce rosse. La freccia rossa avendo verso opposto rispetto
al campo magnetico corrisponde ad uno stato energetico superiore.
Nel momento in cui questo avviene i nuclei sono in condizione di risonanza. Questa transizione nucleare non
avviene a qualsiasi frequenza della radiazione elettromagnetica nel campo delle radiofrequenze ma avviene
ad una frequenza specifica in base al tipo di nucleo atomico che sto analizzando e al suo environment chimico.
Quello che si va a studiare è il segnale di decadimento ossia il processo di rilassamento dei nuclei atomici.
Vengono magnetizzati, vengono perturbati con la radiazione elettromagnetica, dopo di che si elimina tutto e
si vede come si rilassano ossia come nel tempo recuperano lo status iniziale di orientamento dei vettori
momento angolare nucleare.
Negli strumenti più vecchi questo processo veniva svolto frequenza dopo frequenza. Si considerava campo
della radiofrequenza, si colpiva il campione con una certa frequenza e si analizzava quello che succedeva,
così per ogni frequenza finché non si portava il campione in risonanza.
Gli strumenti moderni non svolgono più una scansione frequenza per frequenza. Lavorare in questo modo
implica un’analisi estremamente lungo ma si ha lo spettro delle frequenze in un’unica ondata. Questo implica
che questi strumenti hanno una grossa potenza di calcolo. Nel momento in cui si colpisce il campione
magnetizzato con l’onda elettromagnetica che contiene tutte le frequenze, in uscita si ha un segnale di
decadimento che viene registrato estremamente complesso e che viene poi tradotto in uno spettro (con
picchi) tramite la trasformata di Fourier. Gli strumenti più vecchi erano più immediati da capire perché si
analizzava una frequenza alla volta e si vedeva se i nuclei andavano in risonanza a differenza degli strumenti
moderni i quali hanno una potenza di calcolo tale per cui si fa interagire tutto lo spettro di frequenza
contemporaneamente, si registra un segnale di decadimento molto complesso e poi con la trasformata di
Fourier si ottiene uno spettro. Questo ha reso l’analisi più veloce e che le 1024 scansioni che spesso si
svolgono del carbonio 13 siano fattibili in determinate ore e non in giorni (cosa che accade usando strumenti
di vecchia generazione). Si vedrà successivamente come il segnale di decadimento che si registra viene
tradotto in uno spettro.
12
Di Giacinti/Impagnatiello
18 Bionanotecnologie (Boffito)
31/03/2022
Spettroscopia in risonanza magnetica nucleare (NMR)
Ricapitolando:
Ѐ stato già introdotto come l’NMR sia una spettroscopia ad assorbimento che va ad analizzare
transazioni nucleari che avvengono a livello di nuclei atomici quando essi si trovano ad interagire
con radiazioni nel campo delle onde radio. Parallelamente è stato detto che non tutti i nuclei
atomici possono essere visualizzati quindi identificati con questa tecnica, dal momento che,
affinché io possa analizzare un nucleo atomico con l’NMR, questo debba essere soggetto ad una
magnetizzazione, cioè che esso, introdotto in un campo magnetico, sia responsivo nei confronti
del campo magnetico. Per questo motivo non tutti i nuclei atomici sono caratterizzabili con l’NMR
ma soltanto una particolare sezione di nuclei atomici che rispecchia particolari caratteristiche.
Quali sono i nuclei atomici che posso vedere con NMR? Quelli che hanno un numero dispari di
protoni, un numero dispari di neutroni o entrambe le caratteristiche. Tutti questi possono ruotare
attorno a sé stessi, attorno all’asse di spin, questi hanno un momento angolare nucleare diverso
da zero. Questo vettore, nel momento in cui il nucleo atomico viene sottoposto ad un campo
magnetico esterno, si orienta, quindi è in grado di ruotare e orientarsi sotto il campo magnetico
imposto. In letteratura si trovano tabellati dei numeri quantici di spin attraverso i quali posso
calcolarmi il numero di orientamenti possibili che il vettore può assumere nel momento in cui è
sottoposto ad una magnetizzazione, la formula che mi permette di fare tutto questo è (n+1). Si
può avere a che fare con nuclei atomici con numero quantico di spin diverso da zero, può essere
intero o semi intero, oppure ci si può trovare di fronte a nuclei atomici il cui valore di I è zero, in
quest’ultimo caso i nuclei atomici non possono essere identificati con NMR, questo perché il fatto
di avere I = 0 implica che questi non abbiamo momento angolare nucleare, quindi quando li
inserisco in un campo magnetico non vengono influenzati.
Ad esempio, l’isotopo 12C ha I = 0, non si può identificare, stesso discorso vale per l’isotopo 16O.
Considerando il protone 1H, il suo I vale ½, allora il vettore del momento angolare nucleare
diverso da zero e può assumere due diversi orientamenti. Lo strumento è sempre lo stesso ma
quando si fa l’analisi bisogna dire quale nucleo atomico vado ad analizzare. La qualità dello spettro
che registrato è invece strettamente correlata ad un altro parametro riportato nella terza colonna
della tabella, l’abbondanza naturale, espressa in %. Questa informa su quanto quell’isotopo è
presente in natura, questo dato ha importanti implicazioni sulle qualità del segnale. Se si considera
il protone 1H, questo ha abbondanza naturale del 99%, quindi ce n’è tantissimo, quindi quando si
analizzerà il campione al suo interno ci saranno tanti nuclei atomici di quel tipo che andranno a
contribuire alla generazione del segnale. Diversamente se considero l’isotopo 13C la sua
abbondanza naturale è 1%, questo fa sì che quando si analizzano i campioni al 13C al suo interno ci
sia invece una piccola quantità di isotopi e quindi il segnale che si produrrà sarà più debole.
Per ovviare a questa problematica e migliorare la qualità si può agire sui seguenti fattori:
- analisi più lente, con più scansioni (con carbonio anche un migliaio di scansioni, così da
ottenere più spettri da mediare, contemporaneamente si ripulisce del rumore di
sottofondo, infatti se i picchi sono bassi si rischia di confonderli con il rumore di
sottofondo);
- concentrazione del campione, fare un’analisi con 10mg vuol dire che dentro a quel
campione ci saranno tot nuclei atomici di un certo tipo, ma usare 50mg di campione mi
garantirà un quantitativo di nuclei atomici 5 volte maggiore.
1
Di Giacinti/Impagnatiello
18 Bionanotecnologie (Boffito)
31/03/2022
• Funzionamento
Si identificano due fasi: inizialmente il campione deve essere sottoposto a magnetizzazione,
dopodiché lo si fa interagire con la radiazione elettromagnetica nel campo delle onde radio.
Il campione all’inizio è in uno status, in condizioni di equilibrio, i vettori dunque sono orientati in
maniera completamente casuale.
Nel primo step si effettua la magnetizzazione, si
impone un campo magnetico dall’esterno 𝐵0, in questo
i vettori del momento angolare nucleare del nucleo
atomico verranno sottoposti a magnetizzazione.
Nel caso in figura in cui gli orientamenti possibili siano
due(C13), allora una parte dei vettori che si distribuirà
parallelamente al campo e nello stesso verso (freccette
azzurre, stato a bassa energia), l’altra parte invece si
distribuirà in direzione opposta (freccette rosse, stato
ad alta energia). In che percentuale sono queste due configurazioni? Circa al 50 e 50 ma con una
leggera prevalenza delle frecce azzurre (verso concorde a 𝐵0) rispetto alle rosse. Questo è
importante perché è proprio questa piccola prevalenza che permette di generare lo spettro NMR.
Nel secondo step si va a colpire il campione magnetizzato con le radiazioni elettromagnetiche nel
campo delle radio frequenze, queste saranno a frequenze differenti, ma solo in corrispondenza di
una certa frequenza avverrà la transizione delle frecce azzurre dallo stato in cui si trovano allo
status ad alta energia. In corrispondenza di quella frequenza, detta di risonanza, i nuclei atomici
vanno incontro ad un fenomeno di risonanza. Quello che si fa successivamente è la registrazione
del segnale di decadimento dell’induzione generata, si registra cioè il segnale che viene rilasciato
dai nuclei atomici e si tolgono tutti gli effetti perturbanti come la magnetizzazione ed essi
progressivamente tornano allo stato iniziale. Questo tipo di analisi negli strumenti vecchi viene
fatto frequenza per frequenza, quindi, ad ogni frequenza si valutava se si inducesse la risonanza.
Ciò portava ad analisi lunghissime, ad ogni frequenza si applicava la radiazione, si registrava e si
vedeva se si era indotta risonanza. Con i moderni strumenti si sfrutta la tecnica della trasformata
di Fourier, tramite la quale è possibile bombardare il campione con tutte le frequenze
contemporaneamente e analizzarle in un unico step, sfruttando una potenza di calcolo maggiore.
Si ottengono così analisi veloci ed è possibile fare molte più scansioni.
Si è detto che lo strumento registra il segnale che viene rilasciato dai nuclei durante la fase di
rilassamento, ovvero nel momento in cui si tolgono tutti gli elementi perturbanti e i nuclei tornano
progressivamente allo stato di equilibrio, questo segnale è chiamato FID (Free Induction Decay o
libero decadimento dell’induzione).
Il FID è un segnale di
intensità nel tempo, all’atto
pratico non lo si vede
direttamente, nel senso che
lo strumento invia il segnale
FID che registra a dei
calcolatori grazie ai quali, in
uscita, si ottiene lo spettro
del segnale. Questo spettro
avrà in ordinata l’intensità
mentre in ascissa la frequenza e presenterà dei picchi in corrispondenza delle frequenze di
risonanza. In accordo a ciò, quando si fa analisi NMR bisogna dire allo strumento quale nucleo
atomico si sta analizzando, non si possono analizzare più nuclei contemporaneamente. Se l’NMR
2
Di Giacinti/Impagnatiello
18 Bionanotecnologie (Boffito)
31/03/2022
effettua l’analisi ad un protone, andrà ad individuare e studiare i fenomeni di risonanza a carico
del protone, ma se l’analisi viene effettuata su uno specifico nucleo atomico, sempre protoni sono,
quindi ci si aspetta degli spettri che abbiano sempre un solo picco; questo è derivante dal fatto che
se si analizzano i protoni, tutti questi dovrebbero andare in risonanza insieme (avendo la stessa
frequenza di risonanza), ma se fosse davvero così l’NMR non servirebbe a nulla. Questo perché
indipendentemente dal materiale se i protoni vanno in risonanza ad una precisa frequenza ci si
aspetta la medesima cosa in più campioni. In realtà non si ottengono mai spettri a picco singolo,
l’NMR infatti è una tecnica che rileva informazioni anche sull’environment chimico, sull’intorno
chimico dei nuclei atomici. Il fatto che il nucleo atomico abbia un intorno chimico differente,
sposta la frequenza di risonanza, ne consegue che lo spettro avrà tanti picchi, questi saranno
attribuibili a protoni, a C13 o a O17, cioè al tipo di nucleo atomico che si sta analizzando, ma la
posizione dei picchi sarà diversa perché le frequenze di risonanza cambieranno in base allo status
del nucleo atomico, cioè a quello che è l’environment chimico che lo circonda. Questo è quello
che rende la tecnica altamente informativa. Se i protoni indipendentemente da come sono legati
andassero in risonanza allo stesso modo si vedrebbe sempre un solo picco. Il FID registrato è molto
più complesso quindi perché porta al suo interno l’info di tutti i fenomeni di risonanza avvenuti
anche a frequenze
differenti. Gli spettri
saranno sempre
intensità/frequenza ma
non sono a singolo picco.
Il FID reale, quello che si
porta dentro le info, si
chiama interferogramma.
Ѐ necessario effettuare ancora un passaggio prima di ottenere lo spettro finale. I valori
intensità/frequenza dello spettro graficati sono strumento dipendente, le frequenze alle quali i
nuclei vanno in risonanza possono spostarsi anche in funzione delle caratteristiche dello
strumento, in base al campo che si applica e alla frequenza dell’oscillatore. DI fatto lo spettro che
si ottiene in un laboratorio potrebbe non essere confrontabile con lo spettro ottenuto in un altro
laboratorio. Perché uno strumento diverso ha performance diverse, gli strumenti NMR esistono
con caratteristiche tecniche diverse, capacità risolutive differenti. A prescindere dalla sensibilità
più o meno alta, è corretto riportare i risultati che prescindano dallo strumento. Per eliminare la
variabilità dello strumento gli spettri vengono riportati in intensità/chemical shift (spostamento
chimico). Questo spostamento chimico (espresso per parti su milioni) è ottenuto andando ad
applicare la seguente formula:
𝑆𝑝𝑜𝑠𝑡𝑎𝑚𝑒𝑛𝑡𝑜 𝑐ℎ𝑖𝑚𝑖𝑐𝑜 𝑟𝑒𝑙𝑎𝑡𝑖𝑣𝑜 (𝛿) =
𝑣𝑐𝑎𝑚𝑝𝑖𝑜𝑛𝑒 − 𝑣𝑟𝑖𝑓𝑒𝑟𝑖𝑚𝑒𝑛𝑡𝑜
∙ 106 (𝑝𝑝𝑚)
𝑣𝑠𝑝𝑒𝑡𝑡𝑟𝑜𝑚𝑒𝑡𝑟𝑜
La frequenza dello spettrometro è una frequenza caratteristica dello strumento. Se si effettuasse
un’analisi NMR protonica del cloroformio ci si aspetterebbe il segnale prodotto da questo in
funzione dello strumento utilizzato, in particolare alla frequenza del suo oscillatore. Quello che si
nota però è un segnale uscente a frequenze anche significativamente differenti.
Passando dal dominio delle frequenze a quello degli spostamenti chimici invece si ottiene sempre
lo stesso spettro, il segnale del protone cloroformio esce sempre alla stessa frequenza.
3
Di Giacinti/Impagnatiello
18 Bionanotecnologie (Boffito)
31/03/2022
Perché c’è un riferimento? Per
annullare gli effetti derivanti dal
fatto che i diversi nuclei atomici
sentono campi magnetici diversi per
effetto schermante dei loro vicini.
Quando viene inserito il campione
nel campo magnetico, ogni nucleo
atomico sentirà un campo magnetico
leggermente diverso, in base al fatto
che ha attorno qualcosa che lo
scherma. La presenza del riferimento
permette dunque di annullare
questo effetto. Questo riferimento è
una molecola addizionata al
campione, di cui si conosce l’uscita, è possibile così spostare lo spettro a zero, eliminando possibili
variazioni del posizionamento dei picchi. Come riferimento solitamente si utilizza il TMS
(tetrametilsilano). I riferimenti eliminano eventuali variazioni della posizione dei picchi, comunque
molto piccoli, derivanti dalla non perfetta omogeneità del campo magnetico percepito dai
differenti nuclei atomici. Molto spesso è già presente nei solventi con cui si lavano i campioni.
• Valutazione dello spettro
All’atto pratico gli spettri che si ottengono devono essere interpretati, tramite conoscenze
pregresse, come tabelle o schemi che definiscono in quali regioni dello spettro avere i picchi.
In particolare, nello spettro 1H NMR, che normalmente va da 0 a 12 ppm, ci si aspetta la comparsa
di picchi di protoni legati al gruppo carbonile, lo stesso vale per altre tipologie di protoni. Va anche
detto che alcune regioni possono avere la comparsa di picchi differenti attribuibili a protoni
differenti. Per l’uso nostro, quindi valutare lo spettro per verificare ciò che già ci si aspetta, si
4
Di Giacinti/Impagnatiello
18 Bionanotecnologie (Boffito)
31/03/2022
conosce già la posizione di questi picchi, perché conosco la chimica del campione in esame. Nel
discorso inverso, ovvero partire dallo spettro e risalire alla struttura chimica, il fatto che nelle
stesse regioni si possano trovare picchi di nuclei atomici diversi, ovvero nuclei atomici che hanno
la stessa natura ma environment significativamente diverso, rende difficile l’identificazione degli
elementi. Per risalire alla struttura chimica bisogna fare più spettri NMR su nuclei atomici
differenti e incrociare i dati registrati. Lo stesso discorso vale per C13. I picchi degli spettri si
trovano in posizioni diverse per i nuclei atomici anche se della stessa natura, perché vanno in
risonanza a frequenze diverse influenzati dall’environment chimico.
L’environment chimico ha delle implicazioni: questo lo si nota nello spettro, sulla forma dei miei
picchi. Nello spettro, infatti, si possono avere ad esempio dei singoletti (picco singolo), o dei
multipletti (picchi splittati in tanti picchetti).
La presenza di singoletti o multipletti va ulteriormente a definire l’environment chimico del nucleo
atomico, questo infatti sente due diversi campi magnetici, quello imposto dall’esterno ma anche
quelli più deboli prodotti da altri nuclei atomici della mia stessa natura che sono vicini. Il fatto di
avere questo doppio tipo di magnetizzazione fa sì che questo effetto di vicinanza porti allo split dei
picchi.
Il numero dei picchetti che si vanno a creare per questo fenomeno è determinato dalla formula
(n+1), dove n è il numero di protoni vicini. Ragionando sui protoni, perché c’è molta più
molteplicità (nel C13 è più difficile), se attorno al protone non ce ne sono altri, il protone sentirà
solo il campo magnetico dell’esterno e si genererà un singolo segnale. Se legato al protone si
avessero dei carboni e poi degli idrogeni, il protone non sentirebbe solo il campo magnetico
esterno, ma anche quello dei vicini, il segnale non sarà più un singoletto ma sarà splittato con di
una quantità uguale al numero dei miei vicini.
ESEMPIO: spettro
isopropilmetiletere.
A livello molecolare
si identificano 3
diversi tipi di
protone: i protoni
del gruppo CH3 che
non hanno altri
simili (sono protoni
di un CH3 legato ad
un ossigeno); i
protoni che sono CH, questo protone è solo nella sua natura, perché ha legato da una parte O e
dall’altra due gruppi CH3; l’ultimo tipo di protone è quello degli altri CH3, questi chimicamente
sono uguali perché sono legati ad un gruppo CH. Il primo gruppo di protoni (di un gruppo CH3, in
rosso) non hanno dei vicini quindi si manifesteranno come singolo picco (n+1=1). Il protone del
gruppo CH (in blu) ha legato a sé 2 gruppi CH3, quindi ha vicino 6 altri protoni, 3 per ogni CH3, se si
applica la formula (n+1) ottengo 7, ecco che il segnale di questo protone viene splittato in 7
picchetti, in intensità è molto più bassa. I protoni di CH3 (in rosa) hanno un vicino, che è il protone
del CH, quindi n+1=2, il segnale si manifesta come un doppietto. Non verrà mai richiesto di fare
questi ragionamenti, basti sapere che i protoni possono sentire altri campi magnetici oltre a quello
esterno e questo porta ad avere dei picchi splittati e il sotto numero in cui il picco si splitta
dipende dal numero dei vicini.
Osservazioni: gli spettri NMR protonici sono relativamente puliti e hanno una linea di base che ha
poco rumore, inoltre essendo il protone un elemento con elevata abbondanza naturale si avrà una
5
Di Giacinti/Impagnatiello
18 Bionanotecnologie (Boffito)
31/03/2022
buona intensità. Il carbonio da segnali molto rumorosi, lo splitting si vede ma non tutto, il segnale
già è basso, se c’è anche molto rumore risulta di difficile interpretazione.
Andando a riassumere quando si procede con l’NMR gli step da seguire sono:
1- Introdurre il campione all’interno di un campo magnetico per indurre il processo di
magnetizzazione;
2- Far interagire il campione magnetizzato con la radiazione elettromagnetica del campo delle
radiofrequenze e andare a indurre la perturbazione (cioè in corrispondenza di certe
componenti di frequenza i miei nuclei atomici andranno in risonanza);
3- Registrare il segnale FID;
4- Elaborare matematicamente il segnale FID al computer, applicando la trasformata di
Fourier, ottenere in uscita lo spettro NMR in funzione della frequenza o dei chemical shift;
• Strumentazione
Gli strumenti moderni, per applicare il campo magnetico, sono forniti di magneti superconduttori,
motivo per cui l’ingombro dello strumento è importante. Infatti, per lavorare, questi strumenti
hanno bisogno di temperature molto basse, necessitano di
una camicia di raffreddamento, che viene fatta solitamente
tramite azoto ed elio liquido. Nel magnete si inserisce il
campione, solitamente allo stato liquido (in soluzione), anche
se esistono NMR che fanno analisi allo stato solido, in quel
caso si utilizzeranno polveri. Quando il campione è allo stato
liquido bisogna solubilizzare il materiale in un solvente, i
solventi che si utilizzano sono deuterati, in una percentuale dl
99%. Cosa significa questo? Se si fa un NMR protonico, in cloroformio, questo ha un protone
dunque può subire magnetizzazione, ma se si utilizza il cloroformio deuterato, se si fa NMR del
protone H1, con il solvente deuterato quel protone non da segnale. Ad esempio, se si hanno 10mg
di materiale solubilizzato in 1ml di solvente, se questo non fosse deuterato, il solvente
produrrebbe dei picchi che andrebbero ad abbattere il mio segnale utile, perché si ha solvente in
eccesso rispetto al campione. I solventi deuterati si comprano già così.
A livello di strumento il magnete ha all’interno il
probe, elemento in cui si va ad inserire il
campione, si hanno poi altre bobine che vengono
chiamate di shimming, sono presenti perché
bisogna fare in modo che il campo magnetico
esterno sia più uniforme possibile, queste bobine
servono per eliminare eventuali gradienti. Altro
elemento essenziale è lo spinneret, durante tutta
l’analisi il campione viene posto in rotazione
attorno al proprio asse. Questo è fondamentale
perché garantisce che tutto il campione senta il
campo magnetico, evitando le disuniformità. Si
effettua la magnetizzazione, il segnale FID viene
registrato e buttato dentro la macchina di calcolo
e in uscita si ottiene lo spettro.
6
Di Giacinti/Impagnatiello
18 Bionanotecnologie (Boffito)
31/03/2022
• Applicazioni
Per cosa si può usare l’NMR? Per fare analisi sulla stereochimica dei polimeri, per identificare la
presenza di certi gruppi funzionali di catena, o gli end groups, risalire alla composizione dei
polimeri fino ai singoli monomeri, nei polimeri a blocchi è possibile andare a identificare la
presenza di tutti i blocchi effettivamente presenti in catena, è possibile fare studi di reattività dei
monomeri e arrivare anche a fare valutazioni di pesi molecolari, in quest’ultimo caso i polimeri che
si analizzano devono essere semplici.
Spettroscopia Infrarossa
Tecnica molto più semplice rispetto all’NMR, meno informativa però, la spettroscopia ad
infrarossa, è anch’essa una tecnica di assorbimento, che va ad analizzare le interazioni che
intercorrono tra il campione e radiazioni elettromagnetiche nel campo dell’infrarosso. In questo
campo dell’infrarosso è possibile identificare diverse regioni nello spettro a differenti lunghezze
d’onda, vicino (13000- 4000 𝑐𝑚−1), medio (4000-6000 𝑐𝑚−1) e lontano (600-10 𝑐𝑚−1).
Normalmente si lavora nel campo dell’infrarosso medio e leggermente nell’infrarosso lontano
(range 4000-400 𝑐𝑚−1).
In cosa consiste la tecnica? Si colpisce il campione con una radiazione nel campo dell’infrarosso, la
radiazione ha al proprio interno diverse componenti spettrali, la radiazione è policromatica, con
all’interno tante frequenze, ci saranno particolari frequenze con cui il materiale in esame è capace
di interagire, come anche altre con cui non interagirà. Ne consegue che il raggio colpisce il
campione, se non interagisce esce uguale a sé stesso. Se il raggio colpisce il campione e interagisce
ci sarà assorbimento e il raggio uscirà dal campione con intensità inferiore rispetto a quella con cui
era entrato. Il tipo di transizione per effetto
delle interazioni sono transizioni vibrazionali,
cioè i nuclei colpiti iniziano a vibrare, inoltre i
nuclei vibrano in maniera differente. Gli spettri
che si ottengono in uscita sono sempre spettri
con una linea di base e dei picchi, simile quindi
all’NMR anche se la natura e geometria dei
picchi è completamente diversa.
I dati vengono graficati in due modi:
in ordinata la trasmittanza e in ascissa il
numero d’onda;
in ordinata l’assorbanza;
7
Di Giacinti/Impagnatiello
18 Bionanotecnologie (Boffito)
31/03/2022
Quando lo spettro è in trasmittanza si grafica in termini percentuali ciò che viene trasmesso,
questo vuol dire che: se si ha la radiazione ad una certa frequenza che colpisce il campione, se non
interagiscono tra loro, la radiazione esce in maniera uguale, in termini di trasmittanza ci sarà il
100%. Quando c’è interazione la radiazione arriva, colpisce il campione e avviene l’interazione, a
quel punto una parte dell’energia di radiazione viene assorbita e in uscita si avrà una radiazione
con intensità minore rispetto a quella in ingresso, di fatto la trasmissione è minore. Questo si
traduce nello spettro con la comparsa di picchi rivolti verso il basso, perché la trasmittanza
diminuisce. Se ci fossero in grafici in assorbanza, questo sarebbe sempre lo stesso ma ribaltato
perché in assorbanza si grafica ciò che viene assorbito (quando non viene assorbito nulla
l’assorbanza è zero), perciò quando c’è interazione c’è assorbimento e compare un picco che non
è rivolto verso il basso ma verso l’alto e sarà tanto più alto quanto più c’è stato assorbimento.
Posso avere modi di vibrare diversi, se ne possono identificare di due tipi:
- stretching (o stiramento) che
sono vibrazioni in cui si ha uno
stiramento ritmico lungo l’asse di
legame, questo può essere
simmetrico o asimmetrico;
-
bending, ovvero di piegamento, queste vibrazioni prevedono delle variazioni dell’angolo di
legame o in alternativa dei movimenti di un gruppo di atomi rispetto agli altri.
Mentre lo stretching può esser simmetrico o asimmetrico, nel caso del bending la situazione è più
complessa, nel senso che si possono avere situazioni di bending in diverse modalità: scissoring,
rocking, wagging, twisting; a seconda di come vibrano i miei atomi.
Che cosa è informativo nello spettro infrarosso?
- La posizione del picco;
- L’intensità;
- La forma;
Al punto che nelle tabelle di riferimento, oltre ad identificare il tipo di vibrazione ci sono anche
informazioni relativamente al fatto che quel segnale sia forte, medio o debole, in base all’intensità
del picco, e che abbia una forma stretta o larga.
Il modo di interpretare spettri infrarossi è analogo a quello visto con NMR. Normalmente si
registra lo spettro e si confronta con dati presenti in tabelle o schemi che indicano; i diversi tipi di
legami; in corrispondenza di quali numeri d’onda vanno in vibrazione; il tipo di vibrazione vanno
ad avere. Come visto con il protone e con il carbonio, si possono trovare in diverse regioni i picchi
d’onda a carico di legami differenti, ma anche all’interno della stessa regione posso avere
8
Di Giacinti/Impagnatiello
18 Bionanotecnologie (Boffito)
31/03/2022
vibrazioni di legami differenti tra loro, motivo per cui se l’obiettivo è andare la caratterizzazione
non ci sono problemi perché si conosce a priori la struttura chimica del campione, ma se
l’obiettivo è ipotizzare una struttura chimica questa da sola non basta.
C’è una regione particolare poi dell’infrarosso che va da 1500 a 500 𝑐𝑚−1 che riporta la
fingerprint, ovvero la regione di impronta digitale dei materiali. Si tratta di una regione particolare
univoca per ogni materiale, ma nel suo essere l’impronta è estremamente complessa da
interpretare. L’impronta digitale ha un’altissima ricchezza in termini di componenti spettrali e
picchi. È utile se si vuole verificare che ad esempio il materiale A sia uguale al materiale B, si
possono sovrapporre gli spettri ma interpretarli singolarmente è più complicato perché si tratta di
una regione molto complessa perché ricca di molti picchi, prodotti da legami anche diversi tra loro,
si avranno molte sovrapposizioni.
• Funzionamento
Anche qui c’è stata un’evoluzione negli strumenti che ha permesso di averne di più performanti.
Quelli di vecchia generazione
(Spettrometro IR a dispersione),
erano strumenti che andavano a
fare analisi con tempi più lunghi,
perché partivano da una sorgente
da cui si creava una luce
policromatica, questa tramite
specchi veniva inviata ad un
riferimento e al campione. La
radiazione attraversava il
riferimento e il campione,
interagiva con essi, dopodiché le
due radiazioni venivano
nuovamente, dopo i fenomeni di interazione, combinate tra loro. Quello che si faceva era sottrarre
il segnale di riferimento al segnale del campione, e tutto questo segnale risultante veniva dato in
pasto ad un monocromatore. Questo elemento andava a rallentare l’analisi perché tutto il segnale
9
Di Giacinti/Impagnatiello
18 Bionanotecnologie (Boffito)
31/03/2022
policromatico andava a suddividerlo nelle varie componenti spettrali, poi le singole componenti
venivano inviate al rilevatore. Quindi per poter ottenere lo spettro si partiva da una radiazione
policromatica ma l’analisi dei dati veniva fatta frequenza dopo frequenza.
Gli strumenti moderni (Spettrometro IR in
trasformata di Fourier), sono strumenti che
non hanno più il monocromatore, sfruttano
la FFT per poter partire da un segnale,
sempre un interferogramma, che porta
dentro di sé tutte le info dell’interazioni che
sono avvenute alle diverse lunghezze d’onda
del segnale e in un unico passaggio le
traduce in uno spettro. Il sistema della
macchina a livello meccanico è cambiato, si
utilizzano sempre ottiche che permettono di
far convergere la radiazione verso il
campione, tutto questo sistema di ottiche
che si utilizza viene chiamato interferometro
di Michelson. Basta ricordare che c’è stata
un’evoluzione che ha portato alla possibilità
di eliminare il monocromatore. Il passaggio
all’interferometro di Michelson ha portato ad
un significativo risparmio in termini di tempo, una maggiore sensibilità, oggigiorno è
meccanicamente più semplice quindi più facile da gestire e si evitano fenomeni di riscaldamento
del campione perché l’analisi è più corta.
Anche in questo caso è necessario il riferimento: quello che lo spettrometro registra è un segnale
che si porta dentro info sul campione
ma anche sull’ambiente che circonda
il campione, ad esempio aria, si
porta dietro anche eventuali derive
prodotte dallo strumento stesso. Il
background o riferimento serve per
sottrarre al segnale registrato tutto
ciò che non definisce il campione.
Negli strumenti di vecchia
generazione si parte da una luce
policromatica che viene splittata in
due, una parte va al riferimento, una
parte va al campione, poi dopo
l’interazione i due spettri si
riuniscono e viene sottratto il
riferimento al segnale del campione.
Negli strumenti moderni, con questo interferometro di Michelson, non si analizza tutto in un
passaggio solo, ma prima si registra il background, come fosse un’analisi a vuoto, dopo si va a
registrare il campione (campione + backgrund), il software in automatico sottrarrà il background
ottenendo uno spettro che porta dei picchi prodotti solo dal campione.
10
Di Giacinti/Impagnatiello
18 Bionanotecnologie (Boffito)
31/03/2022
Come sono i campioni sottoposti all’infrarosso? Esistono due modalità:
- le analisi in trasmissione;
- le analisi in riflettanza totale attenuata (ATR);
Lo strumento è lo stesso, cambia semplicemente il modulo che si monta sullo strumento.
La mia radiazione nel campo dell’infrarosso attraversa
completamente lo spessore del campione, l’analisi è in massa, in
bulk, perché il raggio attraversa completamente lo spessore del
campione, per fare ciò lo strumento presenta un porta campione
che permette di posizionare il campione in verticale, così da
avere la radiazione che si genere ad una estremità, attraversa il
campione ed esce dall’altra parte. I campioni per essere
analizzati devono essere opportunamente preparati per poter
alloggiare nel porta campione, in particolare devono esser nella
forma di pastiglie. Le pastiglie vengono preparate partendo da
polveri del materiale da analizzare che vengono mescolate in un
mortaio con polveri di bromuro di potassio (KBr), si mescolano e
si pressano sottovuoto tramite pressa idraulica e in uscita si
ottengono delle pastiglie che vengono poi montate sullo
strumento. Perché si utilizza il KBr? Perché questo è trasparente
all’infrarosso, la sua presenza non influenza lo spettro che si
andrà a registrare, perché la radiazione infrarossa non
interagisce in alcun modo con essa, dall’altra parte è necessario utilizzarlo perché non si può
pensare di fare analisi su pastiglie a base del solo materiale in analisi, altrimenti avrei una quantità
di materiale tale per cui tutta la radiazione incidente andrebbe incontro ad assorbimento, quindi in
uscita non si vedrebbe nulla, non si avrebbe uno spettro con i picchi. Il KBr si usa per questi due
motivi, perché trasparente e perché senza di lui non potrei fare analisi in trasmittanza. Il limite di
questo approccio è che è un’analisi a perdere, perché dopo averli analizzati si buttano via.
In alternativa, le analisi si possono fare in ATR.
L’analisi non è più in massa, ma prettamente
superficiale, la radiazione va ad interagire con gli
strati più superficiali del campione e questa
profondità di indagine va da 0.5 a 5 micron.
Questo tipo di approccio si presta anche per
poter valutare le modifiche superficiali dei
biomateriali, anche se non è l’ottimo, perché se
si penetra poco la probabilità che ci siano
componenti del rivestimento è alta, ma se si
penetra di più il materiale poi prevale sul
rivestimento, quindi sicuramente non è la
tecnica di elezione per verificare le modifiche
superficiali.
Come funzione? C’è un cristallo ad alto indice di
rifrazione che viene posto in contatto con il
campione, la radiazione infrarossa entra nel
11
Di Giacinti/Impagnatiello
18 Bionanotecnologie (Boffito)
31/03/2022
cristallo e rimbalza all’interno interagendo con il campione in diversi punti, dopodiché uscirà dal
cristallo e andrà verso il rilevatore e il detector misurerà quanto assorbimento c’è stato. Perché c’è
il rimbalzo? Affinché ci sia assorbanza tale da vederla, si ha la necessità che l’interazione raggio
campione avvenga in più punti, prima il problema non c’era perché attraversando tutto il
campione si ha interazione a sufficienza, tanto che se ne rischia fin troppa. Qui se invece di fare il
rimbalzo avessi un solo punto di contatto, avrei fenomeni di assorbimento troppo bassi e non
vedrei nulla. In uscita lo spettro ha la stessa forma ma il campione non è a perdere. L’unica cosa
da fare è porre il campione sopra il cristallo e solitamente gli strumenti hanno una sorta di manina
utilizzata per premere il campione sul cristallo per massimizzare il contatto fra essi e aumentare la
qualità del segnale registrato, ci sono degli indicatori di forza presenti che permettono di premere
in maniera uniforme il campione senza rischiare la sua rottura.
Come tecnica di per sé è semplice e veloce che però si porta dietro dei vantaggi e svantaggi:
Svantaggi
Non è una tecnica quantitativa, ma qualitativa
o al più semiquantitativa, quest’ultima nei casi
in cui ci siano differenze significative sulla
presenza maggiore in un campione rispetto
che in un altro, ma non si arriverà a dire es:
“ho tot gruppi per grammo di materiale”.
Vantaggi
Fornisce per ciascun composto esaminato una
complessa e caratteristica impronta digitale.
Avendo a disposizione uno standard del
composto, un controllo computerizzato dello
strumento IR permette la perfetta
sovrapposizione delle impronte digitali.
Non si possono definire o individuare
impurezze, ma solo grossolane quindi in
quantità significative (cosa possibile con
l’NMR).
Nel caso della trasmissione è necessaria la
preparazione del campione, quindi,
l’operatore che lo prepara va ad influenzare la
qualità del campione (es. la finezza delle
polveri del campione va ad inficiare la sua
qualità).
Ho sia in trasmissione ma anche in ATR una
manipolazione del campione da parte di chi fa
l’analisi (con l’NMR dal computer si può dire
cosa fare una volta messo il campione nel
cristallo), qui bisogna ad esempio premere il
campione sul cristallo, ma questo varia da
operatore ad operatore. Questo va a supporto
alla teoria del fatto che la tecnica non è
quantitativa.
12
Furlan/Domè
19 Bionanotecnologie (Boffito)
31/03/2022
Spettroscopia infrarossa: Chemical imaging
Esistono strumenti per spettroscopia infrarossa che non fanno un’analisi di tipo puntuale, cioè di
una piccola regione di campione (come quella vista precedentemente). Infatti, nella trasmissione
la radiazione attraversa il campione mentre nella ATR la radiazione rimbalza, ma la regione che si
va ad investigare è una regione molto piccola, dell’ordine di qualche micron.
In questi setup gli strumenti per spettroscopia infrarossa possono essere utilizzati invece per
analizzare regioni più grosse di campioni e fare il cosiddetto chemical imaging. Ciò che si ottiene
facendo il chemical imaging è una vera e propria mappatura cioè si identifica una regione del
campione che si vuole analizzare, la si quadretta e su ogni quadrettino si registra lo spettro
infrarosso.
Si ha quindi non più lo spettro di un punto come nel setup sperimentale precedente ma di un
insieme di punti e si possono usare le informazioni degli spettri che si ottengono da tutti i punti
per costruire delle mappe che normalmente sono colorate.
Di conseguenza si usa un approccio di questo tipo per fare delle valutazioni di uniformità dei
campioni, di uniformità di rivestimenti perché dalla mappatura a colori si può ad esempio vedere
se il segnale che si ritrova ad un certo numero d’onda è uniformemente distribuito all’interno della
regione analizzata.
1
Furlan/Domè
19 Bionanotecnologie (Boffito)
31/03/2022
Il chemical imaging è un upgrade rispetto alla spettroscopia infrarossa tradizionale perché
permette di analizzare una serie di punti vicini tra loro andando a costruire una mappa di spettri
infrarossi.
Usando i software si possono ottenere mappature
colorate come ad esempio quella nell’immagine
dove la mappatura colorata va a graficare il
rapporto tra l’intensità del picco H2 e l’intensità del
picco H1 e quindi si può vedere se c’è uniformità
nel campione o meno.
La si può anche utilizzare nel caso si abbia a che fare con materiali compositi, per cercare la
distribuzione della fase dispersa all’interno della matrice o se si ha un materiale che si sa
possedere delle impurezze significative che l’infrarosso è in grado di detectare, con il chemical
imaging si può pensare di fare una mappatura delle impurezze sul campione.
TECNICHE CROMATOGRAFICHE
Quando si implementa una tecnica cromatografica si sottopone il campione ad un processo di
separazione attraverso l’utilizzo di una colonna cromatografica.
Nei setup moderni gli strumenti di cromatografia hanno una struttura come quella riportata
nell’immagine dove la colonna cromatografica è l’elemento all’interno del quale avviene la
separazione delle componenti presenti all’interno del campione. Nel caso della caratterizzazione
dei polimeri la separazione si basa sul volume idrodinamico occupato dalle catene polimeriche. A
livello della colonna si ha un flusso di una fase mobile, responsabile del trasporto del campione
lungo la colonna a livello della quale, come è stato detto in precedenza, viene separato.
Nella struttura è presente una pompa che preleva il campione dal recipiente e garantisce la
costanza del flusso della fase mobile lungo tutto il percorso dello strumento cromatografico.
2
Furlan/Domè
19 Bionanotecnologie (Boffito)
31/03/2022
Nelle fasi mobili i flussi normalmente sono dell’ordine di 0.4 – 0.5 mL al minuto. La fase mobile
come costituzione nel caso dei polimeri sintetici normalmente è una fase mobile di natura
organica: un solvente organico. Se invece si fa analisi cromatografica di polimeri naturali, le fasi
mobili sono a base acquosa cioè la fase mobile deve essere qualcosa all’interno della quale il
campione è solubile perché nel momento in cui il campione è in soluzione le sue catene
polimeriche sono libere di fluttuare e assumono un certo volume idrodinamico che è l’elemento
rispetto al quale si va a fare la separazione. Fasi mobili che si utilizzano tipicamente con polimeri
sintetici: dimetil-formammide o tetraidrofurano o cloroformio.
Ad un certo punto, prima della colonna si ha l’iniettore che è quell’elemento attraverso il quale si
inietta il campione che è già stato solubilizzato precedentemente nella fase mobile, dentro il
fiume. Il fiume scorre e ad un certo punto viene aggiunto il campione che verrà trasportato dal
fiume verso la colonna dove verrà separato.
In uscita dalla colonna le catene sono state separate secondo il principio di funzionamento della
colonna e nell’ottica di calcolare e stimare dei pesi molecolari, la separazione è una separazione in
base ai volumi idrodinamici e le catene polimeriche messe in ordine andranno verso il detector.
Il detector fa una misurazione che permette di detectare la presenza delle catene e il segnale che
viene registrato andrà ad essere sfruttato per poter definire la distribuzione dei pesi molecolari e
dalla distribuzione si andranno a calcolare i pesi molecolari medi numerale, ponderale e l’indice di
polidispersità.
In fondo si ha uno scarico, lo strumento infatti non è a ricircolo quindi il flusso ossia la fase mobile
viene buttata via e quando si analizzano i campioni conterrà anche il materiale che si è utilizzato, è
ossia una analisi a perdere ma il materiale che si perde è pochissimo ossia circa un paio di
milligrammi (quantità non significative in termini di perdita).
Il segnale registrato dal detector va al software che lo rielabora.
Ciò che verrà fatto ad esercitazione è fermarsi al detector ossia si prenderanno i dati forniti dal
detector e verranno analizzati da noi; questo viene fatto spesso anche in laboratorio così che sia
l’operatore a scegliere i picchi da considerare e se la distribuzione dei pesi molecolari è una
distribuzione multimodale (ossia nella quale vengono identificati più componenti polimeriche
diverse) con le operazioni di deconvoluzione possono essere separate, cosa che non tutti i
software degli strumenti permettono di fare.
Cromatografia ad esclusione molecolare (SEC)
Idealmente, quello che si fa è far scorrere il campione lungo una colonna cromatografica che
funziona come un setaccio molecolare e in uscita le catene sono poste in ordine di volume
idrodinamico. Il volume idrodinamico è strettamente correlato al peso molecolare quindi molto
spesso, anche se in maniera un po’ imprecisa, si dice che la separazione è fatta in funzione del
peso molecolare.
La colonna presenta al proprio interno un
impaccamento ovvero dei granuli impacchettati tra
loro e che sono a loro volta porosi. Le colonne che si
3
Furlan/Domè
19 Bionanotecnologie (Boffito)
31/03/2022
utilizzano sono inerti cioè colonne che non interagiscono con il campione e che quindi non
determinano una trattenuta del campione in colonna; al punto che effettivamente l’unico
parametro che determina la separazione è la dimensione dei pori dei granuli dell’impaccamento.
Idealmente, ci si deve immaginare che entrando in colonna le catene polimeriche si trovano di
fronte ad un labirinto e inizieranno a percorrere questo labirinto con percorsi diversi a seconda del
loro volume idrodinamico perché ci saranno delle vie del labirinto più larghe dove potranno
entrare tutte le catene anche quelle che occupano un volume idrodinamico più grosso ma ci
saranno anche delle vie più piccole, con porosità più piccola dove ciò che ha volume idrodinamico
più grande non riesce ad entrare. Ne consegue quindi che l’ordine di uscita dalla colonna è da ciò
che è più grande a ciò che è più piccolo perché ciò che è più grande ed occupa un volume
idrodinamico più grande (e quindi ha anche un peso molecolare più grande), non riesce a
percorrere tutti i percorsi tortuosi che si hanno all’interno della colonna perché ci sono delle
porosità piccole dove questi non riescono ad entrare e quindi vanno più velocemente verso
l’uscita. Quindi, l’ordine è dal più grande al più piccolo e la separazione è una separazione fisica
fatta in funzione del volume idrodinamico che le catene polimeriche occupano all’interno della
fase mobile o eluente.
L’analogo della SEC per le proteine è la cromatografia per permeazione su gel, dove la colonna è la
stessa, ma esistono per le proteine molte altre cromatografie (a scambio ionico o per affinità dove
si va a funzionalizzare la colonna nel primo caso e nell’altro si usano colonne che espongono
cariche). Nell’ottica di calcolare pesi molecolari la colonna è una colonna inerte che non
interagisce in alcun modo con le catene all’interno, è un labirinto poroso dove ciò che può passare
perché più piccolo passa seguendo sentieri più tortuosi e impiegandoci un tempo maggiore
mentre ciò che non può passare perché più grosso, passa per altre vie più facili ed esce prima.
Ciò che influenza i risultati che si ottengono è la natura della fase mobile perché le catene
polimeriche occupano volumi idrodinamici diversi anche in funzione di ciò in cui sono solubilizzati.
Motivo per il quale quando si parla di risultati di questo tipo è essenziale accompagnarli con
l’indicazione del protocollo sperimentale che è stato utilizzato per poterli definire.
La tecnica è utilissima ma si porta dietro un discreto errore, infatti si parla di errori nella
definizione dei pesi molecolari dell’ordine fino al 10%-15%.
Detectors
Dopo che le catene vengono separate e poste in ordine, devono essere misurate ossia detectate,
quindi, in uscita dalla colonna si va verso un detector. Nel caso della SEC i detector che possono
essere utilizzati sono di diverso tipo:
-
Detectors di concentrazione: tra questi si ricorda il detector a indice di rifrazione che è il
più ampiamente utilizzato e che funziona andando, man mano che il campione scorre, a
valutare se ci sono delle variazioni nell’indice di rifrazione tra la cella in cui scorre il
campione e la cella di riferimento. Laddove ci sono differenze nell’indice si rifrazione, si
verificherà un picco, indice del fatto che ci sono delle catene che stanno scorrendo mentre
laddove non ci sono catene all’interno della cella di analisi la differenza di indice di
rifrazione è zero e quindi si ha un segnale piatto.
4
Furlan/Domè
-
19 Bionanotecnologie (Boffito)
31/03/2022
Altri detectors di concentrazione sono i detectors a UV e a fotodiodi (PDA/DAD), questi
sono più limitati nel loro utilizzo perché per poterli utilizzare si ha bisogno che le catene
che sono state messe in ordine siano sensibili a interazioni con la luce ultravioletta. Se le
catene non hanno elementi che interagiscono con la luce ultravioletta i detectors di questi
due tipi non vedranno mai nulla, quindi dal punto di vista pratico sono un po’ più limitati in
termini di versatilità di applicazione;
Detectors di viscosità;
Detectors di light scattering.
I detectors possono essere utilizzati singolarmente o in combinazione. Quelli che vengono usati
più frequentemente singolarmente sono i detectors di concentrazione mentre gli altri solitamente
sono accoppiati con altre tipologie di detector. Con un detector di concentrazione si riescono ad
avere dati a sufficienza per stimare un peso molecolare (e in effetti ci verranno dati dei dati
provenienti da un detector di concentrazione a indice di rifrazione).
Calibrazione
Se si vuole migliorare la qualità del risultato ottenuto i detector si accoppiano ottenendo ad
esempio un detector di concentrazione associato a un detector di viscosità o si può avere il triplo
detector combinando un detector di concentrazione con uno di viscosità e uno di light scattering.
Ciò che cambia è il tipo di risultato che si riesce ad ottenere e in effetti quando si ha a che fare con
un detector di light scattering il peso molecolare che si va a definire è il cosiddetto peso
molecolare assoluto mentre quando si ha a che fare con gli altri tipi di detector (concentrazione o
concentrazione associata a viscosità) il peso molecolare stimato è un peso molecolare relativo. La
differenza sta nel fatto che usando un detector di concentrazione da solo o associato al detector di
viscosità, il peso molecolare calcolato è relativo cioè è definito sulla base di una curva di
calibrazione che viene utilizzata come riferimento per calcolare il peso molecolare. Quando invece
si ha il detector di light scattering, il peso molecolare definito è assoluto ovvero che prescinde da
delle calibrazioni cioè non è un peso molecolare calcolato usando una calibrazione come
riferimento, come punto di partenza ma è il peso molecolare vero del materiale analizzato.
In effetti, quando si ha a che fare con il detector di light scattering non si va a costruire una curva
di calibrazione ma si utilizza soltanto uno standard, un riferimento, che permette di riassettare i
risultati ottenuti rispetto alle caratteristiche dello strumento utilizzato. Quindi, con il detector di
concentrazione e di viscosità si deve costruire una curva di calibrazione cioè si deve mettere in
relazione ciò che esce dal detector con dei pesi molecolari noti mentre con il detector di light
scattering non si ha bisogno di curva di calibrazione ma si ha semplicemente uno standard che
viene periodicamente analizzato per determinare la costante strumentale.
Il settaggio più informativo è quello della detezione tripla perché si ha la possibilità di avere il light
scattering e quindi calcolare il peso molecolare assoluto ma avendo anche gli altri detector si può
anche trovare il relativo, infatti, si ha il detector di viscosità che misura la viscosità del campione
che sta scorrendo e volendo si possono avere informazioni sulla concentrazione delle diverse
specie e delle catene a diversa lunghezza presenti all’interno del campione. La tripla detezione è il
setup più informativo ma ovviamente anche il più costoso.
5
Furlan/Domè
19 Bionanotecnologie (Boffito)
31/03/2022
Il light scattering potrebbe lavorare da solo ma di fatto se si fa un investimento sul light scattering
vuol dire che si hanno anche gli altri mentre il detector a concentrazione è quello più basico, più
economico e più facile da gestire. La concentrazione con viscosità è utile perché permette di
calibrarsi in maniera da tale da rendere i risultati ottenuti da strumenti diversi e con calibrazioni
diverse, confrontabili tra loro.
Nella concentrazione pura si ha un risultato di peso molecolare che è funzione di ciò che viene
usato per costruire la calibrazione, infatti se si calcola il peso molecolare utilizzando una
calibrazione fatta con polietilenossido si vedono ad esempio 30000 Dalton mentre se vengono
utilizzati gli stessi dati con una calibrazione in polimetilmetalcrilato, lo stesso polimero lo si vede a
50000 Dalto. Il risultato letto è in funzione anche di come si calibra e cosa si usa per calibrare, ciò
perché polimeri di natura differente quando si trovano nella fase mobile occupano volumi
idrodinamici diversi. Quello a concentrazione è quindi il più economico ma ne conseguono dei
limiti e la necessità di specificare la calibrazione con cui è stato calcolato il peso molecolare; la
combinazione di concentrazione e viscosità riesce ad eliminare questa problematica (è quindi un
upgrade mentre il migliore è il light scattering).
Quando si parla di pesi molecolari relativi ossia calcolati rispetto ad una curva di calibrazione, a
seconda del setup di detector che si hanno negli strumenti si può fare una calibrazione
convenzionale o una calibrazione universale.
La calibrazione convenzionale è quella che porta a vedere uno stesso polimero con pesi molecolari
diversi a seconda della calibrazione utilizzata ed è la calibrazione che si costruisce usando i
detectors di concentrazione. La calibrazione universale è quella che si costruisce combinando
concentrazione con viscosità.
Calibrazione convenzionale
Per poter stimare il peso molecolare si ottengono in uscita dal detector due informazioni:
-
-
L’intensità del segnale: per esempio nel caso di detector a indice di rifrazione si ha
un’informazione sulla variazione dell’indice di rifrazione ossia l’intensità del RID dove RID
sta per detector a indice di rifrazione.
Volume o tempo di eluizione: sono parametri correlati tra loro, infatti per esempio, se il
flusso è 0.5 mL al minuto in automatico si può trasformare il tempo in un volume. Il tempo
o volume di eluizione definisce il volume di fase mobile necessaria affinché una
determinata lunghezza di catena (ossia un determinato volume idrodinamico) esca dalla
colonna e arrivi al detector.
Facendo riferimento all’immagine, si vede
che poco prima di 15 mL esce un picco e
quindi la lunghezza di catena che si ha in
corrispondenza del picco esce ad un
volume di eluizione di poco meno di 15
mL. Analogamente si può parlare di
tempo di eluizione, dicendo quanto
tempo è necessario affinché una certa
lunghezza di catena (cioè un determinato
6
Furlan/Domè
19 Bionanotecnologie (Boffito)
31/03/2022
volume idrodinamico) esca dalla colonna e arrivi al detector.
Per poter trasformare i dati di intensità versus volume/tempo di eluizione in una distribuzione di
peso molecolare, è necessario fare riferimento ad una calibrazione. La calibrazione riporta in
ordinata un logaritmo in base 10 del peso molecolare e più nello specifico si utilizza come peso
molecolare quello Mp che è il peso molecolare in corrispondenza del picco mentre in ascissa si ha
il volume o il tempo di eluizione.
Per costruirla si comprano degli standard (gli standard si comprano e sono già definiti dal
venditore come standard) che è un polimero di peso molecolare noto, con indice di polidispersità
tendente a 1 cioè costituito nella quasi totalità da catene lunghe uguali. Si comprano una serie di
standard che hanno pesi molecolari diversi e li si fa scorrere dentro lo strumento così da ottenere
un elugramma (graficato in blu nell’immagine) cioè si ha un segnale che sta a 0 quando non
escono catene mentre si generano dei picchi laddove si ha fuoriuscita di catena (perché il detector
di concentrazione apprezza la presenza di catene che stanno attraversando il detector). Gli
standard hanno un peso molecolare risaputo e quindi è possibile dire il picco osservato a che
standard corrisponde e quindi si riesce a dire ogni picco osservato a che peso molecolare
corrisponde.
Si arriva quindi a dire che per esempio, il peso molecolare corrispondente ad 1,000,000 di Dalton
esce per un volume di eluizione pari a 14 e qualcosa mL (poco meno di 15 mL) o un peso
molecolare di 200,000 Dalton esce per un volume di eluizione di 16 mL e il peso molecolare di
10,000 Dalton esce per un volume di eluizione di 19 mL. Si può osservare che l’ordine di uscita è in
accordo con quanto detto precedentemente infatti esce prima chi occupa più spazio.
Usando gli standard si riescono a definire dei punti che possono essere inseriti in un piano
cartesiano: logaritmo di peso molecolare versus tempo o volume di eluizione.
Si può osservare infatti l’immagine dove sono presi molti standard e posti in un piano cartesiano
con le coordinate definite: il peso molecolare Mp dello standard (ossia il peso molecolare in
corrispondenza del picco che nel caso degli standard è pari al peso molecolare di quasi tutte le
catene perché gli standard hanno delle gaussiane molto strette) e il volume e tempo di eluizione.
Lo strumento non viene calibrato tutte le volte che viene utilizzato ma viene calibrato
periodicamente, sono infatti strumenti che hanno colonne molto delicate e quindi le colonne
devono sempre essere sotto flusso, bagnate dalla fase mobile e se la colonna si secca deve essere
buttata via. Lo strumento essendo sempre sotto flusso e acceso implica che non ci sia la necessità
di dover calibrare ogni volta che viene utilizzato perché il suo status di partenza è sempre lo
stesso. Quando ad esempio ci sono le vacanze di natale, lo strumento viene spento e al ritorno
dalle vacanze viene ricalibrato, quindi ogni volta che si spegne lo strumento deve essere ricalibrato
o comunque se rimane acceso, ogni tanto deve essere ricalibrato per verificare che la calibrazione
nuova sia coerente con quella vecchia.
7
Furlan/Domè
19 Bionanotecnologie (Boffito)
31/03/2022
Ciò che verrà fatto nelle prossime lezioni ed esercitazioni sarà andare a costruire la calibrazione
con gli standard: partendo dai valori di peso molecolare Mp e dai volumi/tempi di eluizione si
graficheranno i dati andando ad inserire la linea di tendenza, chiedendo a excel di mostrare
l’equazione che sarà il punto di partenza per caratterizzare il polimero.
Infatti, non si sa il polimero che peso molecolare abbia e quindi si fa scorrere il polimero, si osserva
la comparsa di un segnale (normalmente non sono segnali così belli come quelli in immagine
precedente in blu, infatti le gaussiane sono più ampie essendo polimeri di sintesi ed essendo di
sintesi a volte sono sporche) e questo segnale viene registrato formando un elugramma
(nell’immagine si ha l’intensità del segnale in funzione del volume di eluizione). Successivamente,
ogni punto della gaussiana corrispondente ad una certa tipologia di catena che ha una certa
dimensione può essere elaborato dalla curva di calibrazione e usando la sua equazione e sapendo
ogni punto della gaussiana a che volume di eluizione corrisponde, si riesce a definire il logaritmo
del peso molecolare e di conseguenza il peso molecolare di quella specifica catena. Il
ragionamento non si fa più sul punto di picco ma su tutti i punti che vengono registrati dal
detector.
Dati i pesi molecolari, si può calcolare la distribuzione del peso molecolare e dalla distribuzione,
applicando le formule viste con il professor Ciardelli, si possono calcolare i pesi molecolari medi e
normalmente quelli calcolati sono l’MN ossia il peso molecolare medio numerale, l’MW che è il
ponderale e il loro rapporto che è l’indice di polidispersità che da un’idea di quanto la
distribuzione sia ampia cioè di quanto il polimero sia polidisperso.
Il limite di questa calibrazione risiede nel fatto che le curva di calibrazione che vengono costruite
sono significantemente variabili in funzione del materiale che costituisce gli standard perché la
calibrazione convenzionale assume che il campione analizzato abbia la stessa densità degli
standard utilizzati per costruire la curva di calibrazione. Quindi, laddove si hanno degli standard
molto simili al campione in termini di densità allora la curva di calibrazione da risultati buoni
mentre laddove la natura del campione è molto diversa dalla natura degli standard, viene stimato
un peso molecolare ma che ha dietro un errore maggiore.
Ritornando all’esempio precedente del 30000/50000, in realtà il risultato più coerente è quello dei
30000 Dalton perché è stato ottenuto con una calibrazione costruita con polietilenglicole e il
polimero analizzato è un polimero a base polietilenglicole mentre non è assolutamente a base di
polimetilmetalcrilato.
8
Furlan/Domè
19 Bionanotecnologie (Boffito)
31/03/2022
Quindi, anche nello scegliere gli standard che si utilizzano per fare le calibrazioni convenzionali,
l’ottimo sarebbe avere a disposizione tante calibrazioni e usare quella opportuna in base alla
natura del campione analizzato così da ottenere un risultato più corretto. Al tempo stesso,
l’utilizzo di queste calibrazioni comporta dei limiti nella confrontabilità motivo per il quale è
essenziale che ogni dato fornito sia accompagnato dall’indicazione della calibrazione utilizzata per
calcolarlo. Altrimenti caratterizzando un polimero viene osservato un certo peso molecolare e lo
stesso polimero caratterizzato da un'altra parte vede un peso molecolare diverso, non perché il
peso molecolare è diverso ma perché sono state utilizzate due calibrazioni diverse e per effetto di
questa dipendenza del materiale utilizzato per fare la calibrazione si ottengono inevitabilmente
risultati diversi al punto di vedere pesi molecolari che sono il doppio rispetto ai pesi molecolari
osservati con un altro tipo di calibrazione.
Viene riportato di seguito un esempio pratico di calibrazioni fatte con polistirene e polietilene
utilizzando la stessa fase mobile. Si osserva che sono curve abbastanza distanti tra loro e quindi
inevitabilmente si osserveranno risultati molto diversi utilizzando l’una piuttosto che l’altra.
Calibrazione universale
Per ovviare a questo tipo di problematica, si può far riferimento alla calibrazione universale.
Per poter fare una calibrazione universale è però necessario avere un accoppiamento di detectors
e in particolare avere un detector di concentrazione, sia esso UV o a indice di rifrazione (IR),
accoppiato a un detector di viscosità. Anche in questo caso si devono utilizzare degli standard
però il modo in cui viene costruita la curva di calibrazione è differente perché mentre prima
venivano messi in relazione il peso molecolare Mp (di picco o più probabile) con il volume/tempo
di eluizione; in questo caso, il peso molecolare viene coinvolto successivamente perché la curva di
calibrazione mette in relazione la viscosità con il tempo o il volume di eluizione. La viscosità è un
qualcosa che si va praticamente a misurare perché si ha il detector di viscosità. In sostanza, si ha in
ordinata il logaritmo di una viscosità e in ascissa un volume di eluizione.
Questo tipo di calibrazione porta comunque a stimare dei pesi molecolari perché vengono
utilizzate le relazioni esistenti tra la viscosità intrinseca e la concentrazione, infatti, la viscosità
intrinseca viene calcolata come il rapporto tra la viscosità relativa e la concentrazione e dalla
viscosità intrinseca si risale ad un peso molecolare.
9
Furlan/Domè
19 Bionanotecnologie (Boffito)
31/03/2022
Quindi la differenza rispetto alla calibrazione convenzionale è che la curva di calibrazione non
utilizza i pesi molecolari degli standard ma utilizza ciò che effettivamente si va a misurare con lo
strumento analizzato perché si ha a disposizione un detector
di viscosità.
Ne consegue, come si può osservare nell’immagine, che
indipendentemente dal polimero con cui sono fatti gli
standard, la curva di calibrazione è sempre la stessa e quindi
ciò va completamente ad eliminare i problemi derivanti
dall’utilizzo di curve di calibrazione diverse in luoghi o
laboratori differenti.
Domanda studente:
“Come mai nella convenzione universale si utilizzano metodi quali la regressione lineare, mentre
nel caso precedente viene fatta una semplice interpolazione dei punti?”
Ciò dipende dal software utilizzato e dall’approccio adottato per la costruzione della curva di
calibrazione. Lo strumento utilizzato in laboratorio al Politecnico chiede all’operatore di
identificare nell’elugramma la posizione in corrispondenza della quale esce il picco e all’operatore
a che peso molecolare corrisponde quel tempo/volume di eluizione. Successivamente, lo
strumento fa osservare dove sono posizionati i punti nel piano e l’operatore svolge un’operazione
di interpolazione avendo la possibilità di scegliere tra polinomi di gradi differenti.
Spesso si riesce ad arrivare ad interpolare con delle rette, dipende dal tipo di standard e
dall’intervallo di pesi molecolari su cui ci si calibra, infatti gli standard vengono comprati e hanno
pesi molecolari diversi, quindi vengono scelti standard che permettono di calibrare all’interno di
un intervallo di pesi molecolari di interesse dove ci si aspetta che compaiano i segnali dei materiali
che vengono caratterizzati e che siano concordi con il tipo di colonna utilizzata. Le colonne in base
all’impaccamento che hanno sono in grado di discriminare un certo intervallo di pesi molecolari.
Ad esempio una colonna può permettere di discriminare pesi molecolari tra 1000 e 100000 Dalton
mentre un’altra può andare da 100000 Dalton a 500000 Dalton. Quindi, gli standard si comprano
per fare una calibrazione coerente sulla base di risultati attesi e sul tipo di colonna posseduta.
Molto spesso si può arrivare ad avere un andamento lineare, infatti i dati che verranno utilizzati
durante l’esercitazione sono dati veri e si possono interpolare mediante una retta.
10
Furlan/Domè
19 Bionanotecnologie (Boffito)
31/03/2022
Nei grafici viene mostrato il confronto tra la calibrazione convenzionale e quella universale.
Usando gli stessi standard è stata costruita la calibrazione convenzionale (immagine a sinistra)
dove si osserva che l’utilizzo del polistirene o del polietilene porta a delle curve di calibrazione
differenti tra di loro e nel caso della SEC piccole variazioni nel volume o tempo di eluizione
possono corrispondere a non trascurabili variazioni di pesi molecolari. Usando gli standard con una
calibrazione universale (immagine a destra) si osserva che le due curve di calibrazione sono
sostanzialmente sovrapposte tranne nella regione terminale che è la regione corrispondente ai
pesi molecolari più piccoli e ciò è attribuibile al fatto che il polietilene quando ha dei pesi
molecolari molto piccoli subisce delle variazioni conformazionali per cui la curva di calibrazione
(anche nel caso di quella universale) ha una leggera deriva ma è nulla rispetto alle differenze che si
hanno nella convenzionale.
11
Sacco/Romita
Lezione 20 Bionanotecnologie (Boffito)
08/04/2022
Spettroscopia ad effetto fotoelettrico (XPS)
È stato affrontato l’argomento riguardante le tecniche di spettroscopia e nello specifico ci si è
soffermati sulle tecniche di spettroscopia infrarossa e spettroscopia in risonanza magnetica
nucleare.
Un’ultima tecnica di spettroscopia è la spettroscopia ad effetto fotoelettrico (o XPS): serve per
avere informazioni sulla composizione superficiale del campione in oggetto di analisi.
La profondità di interazione della radiazione che interagisce col campione, in questo caso, è
inferiore ai 10 nm e, in uscita, si ottengono informazioni sulla composizione chimica del materiale
analizzato. È una tecnica NON DISISTRUTTIVA, poiché non danneggia il campione e si basa sul
cosiddetto effetto fotoelettrico. In termini generali, con effetto fotoelettrico ci si riferisce al
fenomeno in cui un elettrone viene strappato via da un materiale se irraggiato da una radiazione
con energia sufficiente da indurre questo spostamento. Nel caso specifico dell’XPS, l’effetto
fotoelettrico è indotto dall’interazione di una radiazione nel campo dei raggi X monocromatica
(energia compresa tra 0.1 e 5 keV, in modo più frequente ≤ 2 keV).
Queste radiazioni interagiscono con il materiale causando la rimozione di elettroni, detti elettroni
di core. La radiazione impiegata ha quindi un’energia tale da strappare gli elettroni che si trovano
negli orbitali più interni, cioè più vicini al nucleo (dove sono più saldamente legati).
La radiazione incide sul campione e penetra molto poco all’interno di esso, poiché la profondità di
analisi è inferiore ai 10 nm, e per effetto dell’interazione vengono strappati gli elettroni di core.
L’idea è quella di analizzare gli elettroni di core strappati, per risalire alla composizione della
superficie del materiale in oggetto di analisi.
Come tecnica, si presta a un’analisi elementare qualitativa, cioè individua quali sono gli elementi
presenti sulla superficie: utile per le valutazioni sulla purezza della superficie del campione o per lo
studio di un eventuale fenomeno di ossidazione superficiale del campione.
D’altra parte è anche una tecnica quantitativa, in quanto l’intensità dei picchi, che compaiono
sullo spettro, è direttamente proporzionale alla quantità di uno specifico elemento chimico
presente sulla superficie del campione. Questo implica la possibilità di effettuare un’analisi
quantitativa della composizione superficiale del campione e anche di valutare la stechiometria
della superficie. Si tratta di una tecnica altamente sensibile, che riesce a ottenere un picco sullo
spettro anche quando un elemento è presente in quantità molto piccole (sensibilità: 0.1% in
concentrazione di peso; riesce a detettare elementi anche in parti per milione), e si presta a
valutazioni qualitative e quantitative, come la spettroscopia in risonanza magnetica nucleare.
I campioni, che possono essere alloggiati all’interno dello strumento, hanno delle dimensioni
massime di 𝟏 × 𝟏 × 𝟏 𝐜𝐦, devono essere solidi o in alternativa polveri. Nel caso in cui si
analizzino polveri, tali polveri devono essere molto compattate tra di loro, perché l’analisi viene
condotta in condizioni di alto vuoto. Si inserisce il campione all’interno dello strumento e la
camera in cui avviene l’analisi, viene sottoposta a vuoto molto spinto. Se il campione è a base di
polveri non ben compattate, la pompa meccanica, che crea il vuoto, aspira anche il campione.
I campioni inoltre devono essere planari quanto più possibile, poiché si fa fatica ad analizzare
campioni che presentano curvature.
Lo strumento che si utilizza non è particolarmente ingombrante, ma, come nel caso dell’MRN,
necessita di una grossa potenza di calcolo, per ottenere uno spettro analizzabile.
Si tratta di uno strumento estremamente costoso che necessità di molta manutenzione ordinaria,
motivo per cui non si trova comunemente in qualsiasi laboratorio di caratterizzazione, al contrario
di quello per spettroscopia infrarossa (strumento da banco semplice da gestire).
1
Sacco/Romita
Lezione 20 Bionanotecnologie (Boffito)
08/04/2022
1
Caratteristiche fondamentali:
-
Tecnica di indagine composizionale di superficie (< 10 nm)
Fondata sull’effetto fotoelettrico
Tecnica non distruttiva
Nell’effetto fotoelettrico un elettrone viene “strappato” dal materiale di appartenenza se
irraggiato con una radiazione di energia sufficiente
Una radiazione X monocromatica (0.1-5 keV) possiede abbastanza energia da rimuovere un
elettrone di core dal materiale.
A cosa serve:
-
Analisi elementare (stato di purezza,
ossidazione)
Analisi quantitativa (stechiometria,
composizione) (sensibilità 0.1% in
concentrazione di peso)
Utile in molti ambiti: nanomateriali,
adesione, corrosione, funzionalizzazione
superficiale
Dimensione campione massima 1x1x1 cm (sia
solidi che polveri), difficilmente si riesce a fare
analisi su campioni curvi.
Come funziona l’analisi?
Bisogna produrre un fascio di raggi X attraverso un acceleratore che viene in seguito collimato
verso il campione da analizzare. Il raggio collimato colpisce la superfice del campione e penetra
per una certa profondità (ordine di qualche nanometro).
Nel momento in cui la radiazione colpisce il campione, avviene l’interazione campione-radiazione
luminosa. Per il tipo di radiazione impiegata, gli elettroni di core vengono strappati.
Gli elettroni di core strappati devono attraversare pochi nanometri per uscire dal materiale, cioè
compiere un percorso per essere liberati all’interno della camera di analisi, dove potranno essere
poi analizzati. Questo implica la necessità di una camera di analisi che permetta di detettare
facilmente gli elettroni liberati, per cui è necessario lavorare in condizioni di alto vuoto.
La condizione di vuoto è necessaria, in quanto gli elettroni perdono già energia durante il percorso
di uscita dal materiale, e se, una volta usciti, urtano con le particelle presenti nell’aria, potrebbero
perdere ancora più energia impedendone l’analisi.
In seguito, gli elettroni vengono emessi e bisogna distinguerli in base alle loro caratteristiche,
analizzarli e identificarli. Per questo gli elettroni passano attraverso un selezionatore di energia
che li separa in base alla loro energia di legame. Ne consegue che, in uscita dall’analisi, si ottenga
uno spettro in cui in ordinata è riportata un’intensità, mentre in ascissa è riportata l’energia di
legame o l’energia cinetica.
1
Contenuto slide. In questo elaborato le note indicano l’inserimento dell’intero contenuto delle slide per una
questione di completezza.
2
Sacco/Romita
Lezione 20 Bionanotecnologie (Boffito)
08/04/2022
In questo spettro compaiono dei picchi e ogni
picco è associato a degli elettroni di core liberati
da elementi chimici differenti. In altre parole, in
base all’energia di legame dei diversi valori di
core che vengono detettati, si può identificare
l’elemento chimico che li ha liberati, e dare un
nome a ciascun picco presente sullo spettro. Da
ciò ne deriva che si possono avere indicazioni su
quali sono gli elementi presenti sulla superficie
del materiale in oggetto di analisi.
È possibile identificare tutti gli elementi chimici con questa tecnica? No, perché la condizione
affinché possano essere identificati è data dalla presenza degli elettroni di core negli elementi in
oggetto di indagine. In particolare, l’idrogeno non possiede elettroni di core.
In sostanza, con la tecnica XPS, si possono distinguere tutti gli elementi chimici ad eccezione di
uno, l’idrogeno: non presenta picchi nello spettro perché non possiede elettroni di core da
strappare per effetto delle interazioni.
2
1) Un fascio di raggi X (energia < 2KeV) viene prodotto a livello dell’acceleratore e collimato sul
campione.
2) Gli elettroni strappati dal loro livello di appartenenza attraversano lo strato superficiale del
materiale e vengono riemessi nella camera di lavoro. Per evitare perdite energetiche degli
elettroni dovute a potenziali urti con altre particelle, le analisi vengono condotte in condizioni
di alto vuoto (pressione dell’ordine di 10-6 Pa).
3) Gli elettroni emessi vengono rilevati passando da un selezionatore di energie ed attraverso un
fotomoltiplicatore che amplifica il numero di elettroni ricevuti ad una certa energia e converte
questo segnale in una tensione.
Uno spettro di fotoelettroni viene registrato
contando gli elettroni espulsi in un intervallo di
energie cinetiche degli elettroni. I picchi
compaiono nello spettro da atomi che
emettono elettroni di una particolare energia
caratteristica. Le energie e le intensità dei picchi
fotoelettronici consentono l'identificazione e la
quantificazione di tutti gli elementi della
superficie (tranne l'idrogeno). Nei composti,
l’idrogeno non ha elettroni di core quindi non
può produrre segnale XPS.
Come già detto, è possibile effettuare un’analisi elementare della composizione della superficie,
cioè, analizzando l’energia di legame associata ad ogni picco, si può identificare il picco e quindi
l’elemento chimico da cui sono stati strappati gli elettroni che hanno generato il segnale.
È possibile anche effettuare un’analisi quantitativa, perché l’intensità del picco è proporzionale a
quanto un dato elemento è presente sulla superficie di un campione.
La posizione, cioè l’energia di legame associata a un picco, che identifica l’elemento chimico, si
sposta leggermente in base allo stato di legame dell’elemento chimico. È quindi possibile notare le
variazioni dell’energia di legame rispetto a come l’elemento chimico è legato all’interno del
2
3
Sacco/Romita
Lezione 20 Bionanotecnologie (Boffito)
08/04/2022
campione analizzato. Quest’ultimo è un aspetto molto importante di questa tecnica, in quanto la
rende sfruttabile per realizzare modifiche superficiali di un materiale, trattandosi per l’appunto di
una tecnica per l’analisi superficiale. D’altra parte, le variazioni di energia di legame, al variare
dello stato di legame degli elementi chimici, fa sì che si possa monitorare come varia lo stato di
legame per gli elementi di superficie e si possano distinguere superfici funzionalizzate rispetto a
quelle non funzionalizzate: è importante per modifiche superficiali che implicano la formazione di
nuovi legami covalenti fra un substrato e una molecola.
Per esempio, legando covalentemente una proteina a un substrato tramite l’XPS, si può constatare
se il nuovo legame chimico si sia formato, perché si può monitorare il cambiamento dell’energia di
legame associata agli elementi chimici superficiali, grazie alle piccole variazioni dello stato di
legame. Questa analisi è possibile grazie a un lavoro di deconvoluzione dei picchi: considerato un
dato picco, lo si separa in varie componenti, poiché l’energia di legame si sposta leggermente in
base allo stato di legame, e la distribuzione delle componenti fornisce indicazioni sulla formazione
del legame che ci si aspetta.
Nell’ambito delle modifiche superficiali, come già detto, la spettroscopia infrarossa in modalità
ATR (riflettanza totale attenuata) può essere utilizzata ma non è prestante come la tecnica XPS.
Nel caso in cui si debba analizzare appropriatamente una superficie, la tecnica XPS è la più indicata
poiché ha una maggiore profondità di analisi che permette un risultato nell’ordine dei nanometri
delle superficie di un dato materiale. La modalità ATR, invece, permette anche un’analisi
superficiale, la cui profondità è però dell’ordine dei decimi o di qualche micron. In sostanza. per
caratterizzare al meglio una superficie bisogna utilizzare la tecnica XPS.
3
2
Nello spettro è possibile identificare 3 regioni differenti:
1. Nella prima regione, in corrispondenza di energie di
legame molto basse, si trovano dei picchi prodotti
dagli elettroni di valenza. Questo avviene perché se
1
la radiazione emessa è in grado di strappare gli
elettroni di core, ovviamente strapperà anche gli
elettroni di valenza, in quanto sono meno legati al
nucleo. Inevitabilmente nello spettro si presentano
dei segnali per energie di legame molto basse
prodotti dagli elettroni di valenza.
Si noti che all’interno dello spettro i picchi non sono molto intensi e si confondono quasi con il
rumore di fondo, per cui questa regione di spettro non è informativa in termini di
composizione della superficie di un materiale.
2. Nella regione centrale, per valori di energie di legame più alti, i picchi presenti sono
effettivamente quelli prodotti dagli elettroni di core. Rispetto ai precedenti della prima
regione, questi picchi si presentano molto più aguzzi, intensi e definiti, per cui è questa la
regione dell’XPS, dove si effettuano le valutazioni precedentemente discusse.
3. La terza regione presenta dei picchi con energie di legame ancora più alte, chiamati picchi di
emissione Auger. Questi picchi sono formati dall’emissione di elettroni come conseguenza di
fenomeni di rilassamento: un elettrone strappato, lascia una lacuna (un vuoto) e può accadere
che un altro elettrone si sposti dal suo orbitale per riempire tale lacuna, liberando una parte di
energia. In sostanza, l’energia liberata dall’elettrone che si sposta (che si rilassa), viene
utilizzata da un elettrone poco legato per strapparsi (uscire), dando il via a una catena di
spostamento di elettroni: un elettrone viene strappato ed esce lasciando un vuoto (lacuna); un
altro elettrone entra nel vuoto e libera energia che viene utilizzata da un altro elettrone ancora
per essere strappato. L’elettrone strappato da origine ai picchi relativi a energie di legame
4
Sacco/Romita
Lezione 20 Bionanotecnologie (Boffito)
08/04/2022
molto alte, come frutto di una cascata di eventi che si può originare nel momento in cui viene
strappato un elettrone di core.
Dopo queste considerazioni, si intuisce che la regione di interesse dello spettro è quella centrale,
dove i picchi sono prodotti dagli elettroni di core strappati dall’interazione tra la superficie del
materiale e la radiazione.
3
Le energie di legame (o in alternativa le energie cinetiche) di ogni tipologia di elettrone sono
identificate per ogni elemento.
Il posizionamento di un picco è però influenzato anche dall’intorno chimico dell’atomo in esame,
cioè dai legami che l’atomo forma con gli atomi vicini à gli spettri XPS quindi possono fornire
informazioni sulla struttura chimica dei materiali.
L’intensità di segnale è proporzionale al numero di atomi nel materiale chi si trova in quel dato
intorno chimico.
•
•
Analisi qualitativa: identificazione degli elementi presenti.
Analisi quantitativa: quanto ciascun elemento è presente nel campione.
-
Picchi di emissione da livelli di valenza (basse energie di legame) à derivano dai livelli
energetici più esterni.
Picchi di emissione da livelli di core (alte energie di legame) à derivano dagli shell più interni,
generano picchi pronunciati e ben distinguibili.
Picchi di emissione Auger (localizzati nella regione ad alta energia di legame) à picchi prodotti
da elettroni emessi dal materiale in seguito a fenomeni di rilassamento (un elettrone
fotoemesso lascia una lacuna in cui può cadere un altro elettrone. In questo processo di
rilassamento, l’elettrone perde energia che può essere assorbita da un altro elettrone meno
legato che viene emesso e di conseguenza rilevato).
-
Aspetti critici della tecnica XPS
Un aspetto critico di questa tecnica, già menzionato, è dato dal fatto che l’analisi deve essere
effettuata in condizioni di alto vuoto affinché gli elettroni, una volta usciti dal materiale, non
perdano ulteriore energia per effetto di urti con particelle presenti nell’aria.
Un altro elemento di criticità, associato all’energia degli elettroni, si presenta nel momento in cui
gli elettroni, dopo essere stati strappati, devono attraversare una certa distanza, nell’ordine dei
nanometri, dentro il materiale per poter uscire. Nonostante sia una distanza molto piccola,
comporta comunque perdite energetiche per gli elettroni. Per minimizzare queste perdite, bisogna
ridurre la profondità di analisi: meno l’analisi è profonda e minore è la distanza che gli elettroni
percorrono prima di uscire dal materiale.
Un altro modo per evitare perdite energetiche, consiste nell’analizzare il campione in posizione
inclinata invece che orizzontale, poiché, in un campione inclinato, la distanza che gli elettroni
devono percorrere per raggiungere il detector è ridotta. Durante l’analisi, è quindi necessario
mantenere la camera in alto vuoto e i campioni inclinati per ridurre la distanza che gli elettroni
strappati devono percorrere nel campione prima di fuoriuscire.
3
5
Sacco/Romita
Lezione 20 Bionanotecnologie (Boffito)
08/04/2022
I principali vantaggi di questa tecnica altamente sensibile, che detecta anche elementi presenti in
quantità dell’ordine delle parti per milione, è che risulta versatile, perché si presta a valutazioni
diverse per gli elementi chimici presenti sulla superficie del campione:
• Valutazione qualtitativa elementare;
• Valutazione qualitativa;
• Valutazione dello stato di legame.
Inoltre, non è una tecnica distruttiva e permette di avere informazioni sulla composizione chimica
della superficie del campione.
Il fatto che l’analisi sia superficiale può essere un vantaggio o uno svantaggio a seconda dei casi.
Se si intende caratterizzare la superficie, come nel caso di modifica superficiale, ovviamente è
vantaggioso utilizzare l’XPS, perché è una tecnica che effettivamente analizza le superfici.
Se l’obbiettivo è analizzare le proprietà del materiale in termini di bulk, come massa, allora questa
tecnica non è appropriata.
I vantaggi e gli svantaggi, quindi, dipendono dai punti di vista e da quello che si vuole ottenere.
Sicuramente è svantaggioso lavorare in condizioni di alto vuoto con uno strumento molto delicato
che richiede parecchia manutenzione, infatti ci sono dei tecnici dedicati proprio a questo tipo di
strumento, come nel caso del MRN.
4
CRITICITÀ: gli elettroni fotoemessi devono
attraversare il materiale sovrastante per poter
uscire dal campione ed essere rivelati.
Durante questo percorso, infatti sono avvenire
urti che portano gli elettroni emessi a perdere
energia, con il rischio di ridurre significativamente
la possibilità di rivelarli à lo spettro che viene
misurato è fortemente dipendente dalla profondità di campionamento.
Per ridurre la profondità di campionamento al minimo e ottenere sensibilità superficiale il
campione viene inclinato rispetto alla direzione di raccolta dei fotoelettroni.
VANTAGGI
SVANTAGGI
Elevata sensibilità (ppm)
Solo indagini superficiali
Versatilità
Richiede sistemi ad alto vuoto
Non distruttiva
Richiede molta manutenzione
Identificazione dello stato chimico
del campione
4
6
Sacco/Romita
Lezione 20 Bionanotecnologie (Boffito)
08/04/2022
Caratterizzazione delle proprietà termiche
5
DEFINIZIONE: Con il termine analisi termica o termoanalisi si indicano una famiglia di tecniche di
caratterizzazione che misurano variazioni nelle proprietà del campione in funzione della
temperatura (riscaldamento o raffreddamento).
In altri termini, la termoanalisi rappresenta un gruppo di tecniche nelle quali si monitora una
proprietà del campione in funzione della temperatura o del tempo, sottoponendo il campione in
atmosfera inerte o reattiva a una programmata di temperatura.
Riscaldamento
Fusione
Ossidazione
Decomposizione
Espansione
Fusione
Profilo di
combustione
Temperatura
decomposizione
Modulo
Cristallinità
Stabilizzanti
Contenuto
Rammollimento
Cinetiche
Purezza
È importate trattare l’aspetto che riguarda la caratterizzazione termica dei materiali.
Cosa significa caratterizzare le proprietà termiche dei materiali?
Significa investigare come cambiano status e caratteristiche di un materiale in funzione della
temperatura o in funzione del tempo a temperatura costante.
A seconda dell’obiettivo della caratterizzazione, cioè il target dell’investigazione da effettuare, si
utilizzano tecniche differenti.
•
Ad esempio, se si intendono studiare le variazioni di modulo e le proprietà meccaniche di
materiali temperatura-dipendenti o studiare fenomeni di espansione dei materiali al variare
5
7
Sacco/Romita
Lezione 20 Bionanotecnologie (Boffito)
08/04/2022
della temperatura, allora la tecnica da utilizzare è la DMT, cioè l’analisi termodinamico
meccanica, che permette di correlare le proprietà termiche con le proprietà meccaniche:
- valuta come cambiano le proprietà meccaniche al variare della temperatura;
- studia i fenomeni di espansione o strizione dei materiali al variare della temperatura;
- valuta temperature di transizione vetrosa, perché la DMTA è l’alternativa alla calorimetria
a scansione differenziale (DSC) per valutare le temperature di transizione vetrosa.
•
Se l’obiettivo è valutare come cambia lo status di un certo materiale al variare della
temperatura in termini di cristallinità e fusioni, allora la tecnica di riferimento è la calorimetria
a scansione differenziale (DSC), che nasce come tecnica per studiare le transizioni termiche
che avvengono all’interno dei materiali. Con questa tecnica si possono conoscere le
temperature di fusione, di cristallizzazione, di transizione vetrosa e percentuali di cristallinità.
•
Se l’obiettivo è quello di caratterizzare un certo materiale in termini di stabilità termica, allora
la tecnica a cui bisogna riferirsi è la TGA, ovvero l’analisi termogravimetrica, che nasce come
tecnica per studiare la degradazione termica di materiali polimerici. In questo caso si studia la
cinetica con cui avviene la degradazione termica di un materiale o, in alternativa, nell’analisi
isoterma (temperatura costante), studia la stabilità termica di un dato materiale, che consiste
nella valutazione della degradazione del materiale nel tempo a parità di temperatura.
Calorimetria a Scansione Differenziale (DSC)
La calorimetria a scansione differenziale è una tecnica molto semplice che monitora la differenza
di quantità di calore assorbito, o rilasciato, dal campione rispetto ad un riferimento, quando
entrambi vengono sottoposti a processi termici controllati, ovvero riscaldamenti o raffreddamenti
o mantenimento di una temperatura costante.
Questa tecnica si attua in una fornace che contiene delle termocoppie. Su una delle due
termocoppie è presente un riferimento, sull’altra termocoppia invece si pone un campione.
A questo punto si monitora la quantità di calore da fornire a entrambe le termocoppie per
mantenerle alla stessa temperatura.
Se non avviene alcun processo di transizione termica, il flusso di calore è uguale sia per il
riferimento sia per il campione, perché per mantenerli alla stessa temperatura viene fornita la
stessa quantità di calore a entrambi.
Nel momento in cui avviene una transizione termica nel campione, si verifica uno sbilanciamento
della quantità di calore che bisogna fornire per tenere campione e riferimento alla stessa
temperatura. Ne consegue che, a livello di termogramma, compaiano punti di flesso, cioè
transizioni vetrose oppure transizioni di picchi endotermici o esotermici, che corrispondono a
fenomeni di fusione o cristallizzazione.
Cosa sono il campione ed il riferimento?
Ad esercitazione, sono stati fatti girare i crogioli. I crogioli costituiscono i porta-campioni della DSC,
cioè cappellini di metallo (alluminio, Al) al cui interno viene inserito il campione in una quantità
variabile tra i 5 e i 10 mg circa. Il campione sarà il crogiolo con il materiale chiuso all’interno.
Il riferimento è, invece, un crogiolo vuoto. In tal modo, l’unica differenza che si verifica tra
riferimento e campione è il fatto che da una parte c’è il polimero e dall’altra no.
Tutte le variazioni del flusso di calore che lo strumento misura, sono prodotte solo ed
esclusivamente dal fatto che all’interno del polimero stia avvenendo qualche trasformazione, che
si traduce in comparsa di flessi piuttosto che di picchi.
8
Sacco/Romita
Lezione 20 Bionanotecnologie (Boffito)
08/04/2022
6
Con il termine calorimetria differenziale a scansione si
indica una tecnica in cui viene misurata la
differenza di quantità di energia (calore) assorbita o
rilasciata da un campione rispetto a un riferimento
durante un riscaldamento o raffreddamento controllato
del campione, o in isoterma. Viene quindi tracciato un
grafico dove il flusso di calore (espresso in milliwatt) è
riportato in funzione della temperatura del campione, che
misurata in maniera precisa durante tutto il processo.
Le transizioni di fase che il campione subisce determinano
dei picchi nel termogramma, la cui area corrisponde
all’entalpia del fenomeno in gioco. Trattandosi di una
variazione rispetto a un riferimento, si possono adottare
due convenzioni opposte nella direzione in cui i picchi
vengono rappresentati: qui è stata adottata la convenzione
exo-endo per cui i picchi esotermici corrispondono a una
variazione positiva rispetto alla linea di base e i picchi
endotermici a una variazione negativa.
Analisi TermoGravimetrica (TGA)
La TGA è una tecnica più semplice rispetto alla DSC
perché non è altro che una micro-bilancia.
L’obiettivo è monitorare le variazioni di massa del
campione, quando quest’ultimo viene sottoposto a
variazioni di temperatura, oppure, in alternativa,
monitorare la variazione della massa del campione
nel tempo a temperatura costante.
Dal punto di vista della struttura, lo strumento si
presenta come in figura a destra.
Si tratta di una fornace che permette di mantenere una temperatura costante o comunque che
garantisce che il campione venga sottoposto a un programma termico specifico.
Lo strumento consta, inoltre, di un bilancino che normalmente presenta un aghetto a cui si
appende il campione. La bilancia monitora la massa del campione al variare della temperatura o al
variare del tempo.
6
9
Sacco/Romita
Lezione 20 Bionanotecnologie (Boffito)
08/04/2022
I campioni vengono alloggiati in secchiellini appesi all’aghetto e si utilizzano dei porta-campioni di
natura ceramica, perché devono risultare inerti alle alte temperature che vengono raggiunte
durante l’analisi.
Cosa si ottiene in uscita dalla TGA?
Si ottengono dei grafici che presentano in ordinata la massa, cioè il peso espresso come
percentuale, e in ascissa la temperatura, oppure il tempo nel caso in cui l’analisi viene effettuata a
temperatura costante.
Dato che si tratta del monitoraggio di campioni di massa è essenziale che il campione sia stato
pesato perfettamente: quindi il peso iniziale è relativo al 100%.
Nell’analisi al variare della temperatura, gli andamenti sono simili a quelli riportati in figura in
basso: ci sono punti di flesso che compaiono dove avvengono i processi di degradazione.
Temperatura di massima velocità di
degradazione (𝑇!!"# )
Analizzando questo grafico, si nota che la massa, intorno ai 100 °C, si riduce subito di circa il 7%.
Una riduzione di massa, intorno ai 100 °C, è attribuibile all’evaporazione dell’acqua.
Intorno ai 350 °C, la massa decade, fino ad arrivare nell’intorno dello 0% a 500 °C: questo indica
che il polimero si è completamente degradato e si presenta come una cenere nera all’interno del
secchiellino.
Questo processo di degradazione può avvenire in un unico step, presentando un unico flesso,
oppure può avvenire in più step, presentando più punti di flesso, a seconda della natura del
materiale. Ad esempio, si verificano più step di degradazione nell’analisi di polimeri multiblocco,
perché ogni blocco presente in catena si degrada a temperature differenti.
Oltre al grafico, si analizza anche la derivata del termogramma TGA, perché nella derivata sono
presenti tanti picchi quanti sono gli step degradativi. Inoltre, il punto di massimo dei picchi indica
la temperatura in cui è massima la velocità di degradazione.
Nel caso specifico del grafico, ci sono due step degradativi:
1. uno nell’intorno di 100 °C, che in realtà non si riferisce alla degradazione del polimero, ma
all’evaporazione dell’umidità che conteneva;
2. uno tra i 350 e i 500 °C, che presenta il massimo della velocitàdi degradazione nel punto di
massimo del picco, localizzato a 450 °C.
Oltre al termogramma TGA, si analizza la derivata del termogramma per capire in modo chiaro in
quanti step è avvenuta la degradazione.
10
Sacco/Romita
Lezione 20 Bionanotecnologie (Boffito)
08/04/2022
7
L’ analisi termogravimetrica (TGA) misura i cambiamenti di
peso di un materiale in funzione della temperatura e/o del
tempo in un ambiente ad atmosfera controllata. Il risultato
dell’esperimento è un termogramma che riporta in ascissa la
temperatura (o il tempo) e in ordinata la variazione di massa,
come valore assoluto o percentuale.
Il risultato dell’analisi è un grafico detto termogramma o curva
TG, ove spesso è riportata anche la curva in derivata o curva
DTG che consente di evidenziare meglio le variazioni di peso
del campione.
Caso di Studio
Il caso di studio trattato è relativo ad un’attività di laboratorio in cui vengono utilizzate queste
tecniche non solo per ricerca di base, cioè per caratterizzare materiali così come sono, ma anche
per un’analisi ottica applicativa.
8
OBIETTIVO: caratterizzare un materiale (poli(estere uretano) a base di PCL, 1,4-butandiisocianato
ed estere etilico della lisina) dal punto di vista delle proprietà termiche in vista di un suo
processamento in forma di matrici porose tramite tecnica di deposizione da fuso.
Termogrammi DSC del campione di PU. Prima scansione di
riscaldamento: riscaldamento da 20 °C a 200 °C a 10 °C min−1 e
isoterma a 200 °C per 3 min; scansione di raffreddamento:
raffreddamento da 200 °C a −60 °C a 10 °C min−1 e isoterma a −60
°C per 3 min; seconda scansione di riscaldamento: riscaldamento
da −60 °C a 200 °C a 10 C min−1.
Curve TGA e DTGA di PU. L'analisi è stata effettuata sotto aria
nell'intervallo di temperatura 50-800 °C a riscaldamento velocità
di 10 °C min−1.
In questo caso, la DSC e la TGA vengono adottate come tecniche per studiare le proprietà termiche
di un materiale e valutare la possibilità di processarlo allo stato fuso, cioè tramite le tecniche di
prototipazione rapida da fuso.
Innanzitutto, è stata applicata la DSC per individuare le temperature di fusione del materiale e per
avere idea della temperatura necessaria per poterlo processare.
Dopodiché, con la TGA, è stata studiata la degradazione termica di questo materiale.
7
8
11
Sacco/Romita
Lezione 20 Bionanotecnologie (Boffito)
08/04/2022
In questo caso, la derivata della TGA evidenzia che ci
sono 3 step degradativi: effettivamente si tratta di
poliuretani, quindi sono presenti 3 blocchi diversi che
si possono degradare in condizioni diverse.
Un altro elemento importante è stato effettuare la
TGA in isoterma, cioè monitorare la variazione di
massa del campione alla temperatura di processing
nel tempo. Questo avviene perché, dall’analisi
precedente, si nota che il materiale comincia a
degradare a circa 245 °C.
Percentuale di peso in funzione del tempo durante
analisi TGA isotermica a 165 C, per 1 h, sott'aria.
9
Dopo aver mantenuto il campione a 165 °C per 1 ora, è
stata osservata una perdita di peso di solo circa l'1%,
indicando stabilità termica. Non sono state osservate
variazioni significative in termini di peso molecolare del
PU e indice di polidispersione (𝑀! = 69000 Da, 𝐷 =
1,96) dopo questo trattamento termico.
Il polimero può essere lavorato a temperature fino a
165 °C.
Cosa succede se il materiale viene posto per lungo
tempo a una temperatura inferiore ai 245 °C?
Il materiale a 245 °C sicuramente degrada, mentre a
165 °C degrada o non degrada?
La TGA in isoterma fornisce questo tipo di informazione: effettivamente il caso di studio conferma
che il materiale regge fino ad un’ora alla temperatura di 165 °C. Dopo un’ora di mantenimento,
però, il materiale comincia a degradare motivo per cui viene adattato il processo di stampa per
ottenere le strutture in figura in basso a destra. Il processo di stampa si effettua in modo tale che il
polimero non rimanga più di un ora a quella temperatura, poiché dopo un’ora il materiale che
viene stampato risulta degradato.
(a) Micrografia al SEM di uno scaffold in PU ottenuto mediante estrusione allo stato fuso
AM; (b) maggiore dettaglio di ingrandimento della disposizione trabecolare.
Il processo di stampa evidenzia come le matrici inizialmente risultino trasparenti. Man mano che la
stampa procede, col passare del tempo, queste diventano sempre più giallastre, poiché il polimero
degrada termicamente.
9
12
Sacco/Romita
Lezione 20 Bionanotecnologie (Boffito)
08/04/2022
Surface functionalization of polyurethane scaffolds mimicking the myocardial microenvironment to support cardiac
primitive cells. PlosOne 2018. https://doi.org/10.1098/rsfs.2013.0045
13
Sacco/Romita
Lezione 20 Bionanotecnologie (Boffito)
08/04/2022
SEM micrographs of PU-based scaffolds cultured with human CPCs for 7 (on the left) and 14 days (on the right): (A, B) PU,
(C, D) PU-G, (E, F) PU-LN1. Scale bar: 100 μm. (G) Proliferation, (H) apoptosis and (I) gene expression of CPCs on PU scaffolds
(control, white bars), PU-G scaffolds (grey bars) and PU-LN1 scaffolds (black bars) at different time points. *p<0.05,
**p<0.01, ***p<0.001 vs. control, #p<0.05, ##p<0.01, ###p<0.001 vs. PU-G scaffolds.
14
Grieco Nobile/Sanseverino
21 Bionanotecnologie (Ciardelli)
21/04/2022
Modifiche superficiali – Adesione Cellulare
Nella seguente lezione si cercherà di capire come le cellule interagiscono con l’esterno. Per
esterno si può intendere sia la matrice extracellulare del tessuto biologico ma anche un‘interfaccia
artificiale.
Le nanotecnologie sono un’importante tecnologia abilitante per riuscire a costruire queste
interfacce. In primis, prima bisogna capire com'è fatta la cellula e come interagisce con l’esterno e
poi si cerca di sfruttare questa conoscenza per progettare dispositivi atti a massimizzare
l’efficienza di questa comunicazione.
La cellula
La cellula (dal latino piccola camera) è l'unità morfofunzionale, cioè di forma e di funzione, degli
organismi viventi, la più piccola struttura ad essere classificabile come vivente.
Ogni cellula può esser definita come un'entità chiusa ed autosufficiente: essa è infatti in grado di
assumere nutrienti, di convertirli in energia, di svolgere funzioni specializzate e di riprodursi se
necessario.
L’origine della vita c’è stata quando si sono formate le prime rudimentali camerette nel brodo
primordiale. Questo probabilmente è stato possibile perché si sono formate delle molecole dette
anfifiliche, nel senso che hanno una testa idrofilica e delle code idrofobiche. Questi materiali sono
in grado di autoassemblarsi in soluzioni acquose disponendosi con le teste all’esterno verso la fase
acquosa e le code all’interno (configurazione a micella). C’è anche una configurazione più
complessa in cui le code si organizzano a formare un doppio strato lipidico.
Il doppio strato lipidico separa l’interno dall’esterno
(in entrambi i casi è presente l’acqua). Questo
sistema rudimentale di compartimentazione si è
evoluto via via in compartimentazioni più
complesse; quindi, all’interno della cellula si trovano
altre vescicole siffatte che delimitano altri organelli
cellulari. Quello che interessa è l’interfaccia tra
l’interno e l’esterno della cellula, la quale è garantita
dal doppio strato lipidico.
La membrana cellulare, anche detta membrana
plasmatica, è un sottile rivestimento con spessore di
5 nm (50 Å), che delimita la cellula in tutti gli
organismi viventi, la separa dall'ambiente esterno e
ne regola gli scambi con questo.
Formata in prevalenza da lipidi, e più precisamente
fosfolipidi, viene chiamata anche "doppio strato fosfolipidico". Nella componente lipidica si vanno
a collocare, con importanti funzioni fisiologiche, le proteine e una piccola percentuale di glucidi, in
forma di glicoproteine e glicolipidi, e di molecole di colesterolo che la stabilizzano.
1
Grieco Nobile/Sanseverino
21 Bionanotecnologie (Ciardelli)
21/04/2022
All’interno del doppio strato ci sono molecole prevalentemente di natura proteica (dette proteine
di membrana) che possono essere integrali, ovvero interamente incastonate nel doppio strato
lipidico, oppure periferiche, ovvero possono essere appoggiate sul doppio strato lipidico all’interno
o all’esterno.
All’interno della membrana cellulare non ci sono solo proteine, ma ci sono anche componenti a
composizione oligosaccaridica (zuccheri), in certi casi ci sono le cosiddette glicoproteine. Non solo
le proteine, ma anche gli zuccheri hanno un ruolo nella comunicazione tra la cellula e l’esterno.
Le proteine, oltre alla comunicazione, regolano anche i fenomeni di trasporto, ovvero quello che
entra all’interno della cellula e quello che esce (le sostanze interessanti entrano e quelle di scarto
escono). Il doppio strato lipidico protegge e regola questo trasporto in maniera intelligente,
evitando che ci sia una semplice diffusione osmotica, cioè che il trasporto sia regolato unicamente
dal gradiente di concentrazione.
Riassumendo, la membrana plasmatica svolge le seguenti funzioni:
1.
2.
3.
4.
tenere concentrate tutte le sostanze indispensabili alla vita;
tenere fuori dalla cellula le sostanze dannose;
rendere possibile la comunicazione con l’esterno;
permettere la comunicazione intracellulare.
Matrice Extracellulare (ECM)
All’esterno della cellula c’è la matrice extracellulare (ECM), la quale è un’ entità strutturale
complessa che circonda e supporta le cellule.
La ECM è composta da 3 classi principali di biomolecole:
1. Proteine strutturali: le quali hanno il
compito di tenere insieme le cellule del
tessuto. La composizione della matrice
extracellulare cambia un po' in funzione
del tessuto considerato; una caratteristica
comune è la presenza di proteine
strutturali quali il collagene ed elastina che
hanno il compito di sostenere le cellule nel
tessuto.
2. Proteine specializzate: come ad esempio fibrillina, fibronectina e laminina. Anche in questo
caso la loro presenza varia in quantità e qualità a seconda del tessuto considerato.
3. Proteoglicani: biomolecole complesse ad alto peso molecolare composte da un core
proteico a cui sono aggraffate lunghe catene di unità disaccaridiche dette
glicosamminoglicani (GAGs). Il più famoso è l’acido ialuronico, il quale ha il ruolo di
conferire viscoelasticità alla matrice.
2
Grieco Nobile/Sanseverino
21 Bionanotecnologie (Ciardelli)
21/04/2022
1. Proteine Strutturali
Collagene
Il collagene è una proteina strutturale che viene sintetizzata per sintesi
proteica. A partire dal gene, mediante il processo di trascrizione, viene
prodotto RNA e c’è poi la traduzione che produce la proteina.
La sintesi proteica in realtà non sintetizza il
collagene di per sé, ma delle catene
polipeptidiche (di amminoacidi) che poi si
avvolgono in una tripla elica (procollagene) e che
poi vengono enzimaticamente modificate
eliminando le due teste, diventando
tropocollagene. Queste triple eliche si
organizzano in strutture più organizzate che
sono le fibrille e poi le fibre 🡪 il collagene è
quindi un materiale fibroso.
Esistono numerosissimi tipi di collagene propriamente detto e diverse proteine che hanno
struttura polipeptidica largamente assimilabile al collagene. In letteratura sono stati finora
descritti 28 tipi di collagene.
Elastina
L’altra proteina strutturale è l’elastina, la quale è un elastomero. Ha un dominio idrofobico e delle
zone in cui si creano i cosiddetti cross-link (legami trasversali) tra le catene proteiche che
permettono alla proteina di avere una memoria. Così come accade per gli elastomeri sintetici, si
può esercitare una trazione ed una volta rilasciato il carico, il materiale torna nella sua
composizione originale.
3
Grieco Nobile/Sanseverino
21 Bionanotecnologie (Ciardelli)
21/04/2022
2. Proteine specializzate
La composizione dell’ ECM varia a seconda dei tessuti. Ci sono delle proteine che sono abbastanza
vitali come, ad esempio, la fibronectina. Questa ha una struttura glicoproteica, cioè è una proteina
ma che contiene anche dei segmenti poligosaccaridici (quindi contiene amminoacidi e
monosaccaridi) e la si trova in tutti i tessuti connettivi. È il fattore di legame tra le fibre di collagene
(quelle strutturali) e i fibroblasti.
La laminina ha la stessa composizione e si trova nelle membrane basali. Lega il collagene IV alle
cellule.
Ci sono delle proteine specializzate quali, ad esempio, l’osteonectina che si trova nel tessuto
osseo. Media l’attacco di Ca++, idrossiepatite-collagene I.
La condronectina è l’equivalente dell’osteonectina che si trova nella cartilagine. È il fattore di
legame tra il collagene IV e i condrociti.
Come comunica la cellula?
La cellula comunica tramite specifiche interazioni sia con la matrice extracellulare sia con altre
cellule. Tali interazioni sono fondamentali per determinare precise risposte fisiologiche (o
patologiche).
1. Interazioni CELLULA-ECM:
L’ECM fornisce:
-
istruzioni per tutti i processi cellulari (dice alla cellula cosa fare in specifici momenti)
supporto meccanico alla migrazione cellulare
ospita le molecole che trasportano i messaggi. Alcuni messaggi sono forniti dalle molecole
della matrice extracellulare, altri invece sono portati da molecole solubili chiamate
citochine o fattori di crescita, che vengono trasportati dalla matrice extracellulare, protetti
dalla degradazione e presentati ai recettori cellulari in maniera efficace.
4
Grieco Nobile/Sanseverino
21 Bionanotecnologie (Ciardelli)
21/04/2022
E quindi l’interazione cellula-ECM
promuove:
-
adesione cellulare (la cellula aderisce in una certa posizione)
migrazione cellulare
crescita
differenziamento (nel caso di cellule staminali)
morte programmata (apoptosi)
modula:
-
attivazione di molecole segnale (citochine)
produzione di fattori di crescita (GF)
produzione di segnali intracellulari che migrano nella matrice
Come riceve la cellula questi messaggi? Sono responsabili di questo le proteine di membrana. La
trasmissione del messaggio può avvenire in due modi:
•
Se la proteina di membrana è direttamente collegata
al citoscheletro (es. integrina), il segnale viene
trasferito tramite il citoscheletro dalla membrana al
nucleo e si attivano i processi di PROLIFERAZIONE e
DIFFERENZIAMENTO, accendendo e/o spegnendo
certi geni in funzione del messaggio ricevuto 🡪 in
questi casi si parla di trasmissione meccanica del segnale.
•
Se il legame avviene con una proteina (fattore di
crescita) non collegata al citoscheletro l’espressione
genica per i meccanismi di crescita e
differenziamento cellulare è regolata attraverso
segnali di tipo chimico, tramite l’attivazione di una
cascata proliferativa. In questo caso non c’è una
trasmissione di tipo meccanico, ma di tipo
biochimico.
5
Grieco Nobile/Sanseverino
21 Bionanotecnologie (Ciardelli)
21/04/2022
Riassumendo : I segnali dall’ECM attraverso molecole, segnali, fattori di crescita o le stesse
proteine funzionali dell’ECM regolano l’espressione genica, cioè dicono al nucleo quali geni
accendere e quali spegnere e di conseguenza quali proteine produrre.
Il risultato può essere, ad esempio, il differenziamento in tessuti delle
cellule staminali, le quali possono diventare: eritrociti, cellule del
sistema immunitario, cellule della muscolatura cardiaca o di quella
liscia, cellule neuronali, cellule beta o cellule strutturali tipo condrociti
e osteoblasti.
C’è il dualismo fra sopravvivenza ed apoptosi della cellula.
Quando questi segnali mancano, cioè in assenza di informazioni,
la cellula comincia il suo processo di degradazione: comincia a
rattrappirsi, la cromatina (la quale supporta il DNA) si condensa,
la membrana da tondeggiante comincia a deformarsi fino a
collassare e formare i cosiddetti corpi apoptotici, cioè la cellula
si frammenta in goccioline che contengono le sostanze
contenute nella cellula. Queste sostanze possono far comodo
alle altre cellule e quindi vengono riciclate mediante il processo
di lisi dei corpi apoptotici: si rimuove il rivestimento
fosfolipidico e si recuperano i materiali.
2. Interazioni CELLULA-CELLULA:
I segnali che arrivano possono dare una risposta funzionale di sopravvivenza o di divisione della
cellula. Ad esempio, i segnali A,B,C dicono alla cellula di sopravvivere, poi se si aggiungono i segnali
F e G si può avere una divisione cellulare. Se invece sostituiamo i segnali F e G con D ed E, la cellula
può essere indotta a differenziare, c’è una staminale che diventa una cellula matura.
6
Grieco Nobile/Sanseverino
21 Bionanotecnologie (Ciardelli)
21/04/2022
Le cellule mesenchimali, le quali sono cellule staminali, possono differenziare in osteoblasti,
adipociti o condrociti (rispettivamente cellule dell’osso, del grasso o della cartilagine). In mancanza
di segnali, la cellula può andare incontro all’apoptosi.
Adesione cellulare
Le antenne cellulari, chiamate anche molecole di adesione perché sono responsabili anche
dell’adesione della cellula ad un determinato substrato, sono delle proteine che hanno tre domini:
•
•
•
Intracellulare, che interagisce con il citoscheletro;
Transmembrana, cioè che attraversa il doppio strato lipidico;
Extracellulare, cioè che si trova al di fuori della cellula e interagisce con altre molecole di
adesione che si trovano all’esterno. Queste molecole possono essere o molecole simili in
un’altra cellula (allora si parla di legame omofilo) oppure possono contattare (ed è in
particolare quello che fanno le integrine) le proteine della matrice extracellulare (in questo
caso si parla di legame eterofilo) oppure proteine diverse contenute nelle cellule.
La maggior parte delle molecole di adesione appartiene a 4 famiglie proteiche:
•
•
•
•
Caderine: responsabili dell’adesione cellula/cellula
Superfamiglia Immunoglobuline: hanno dei foglietti beta che vanno ad interagire tra di
loro. La struttura beta è una struttura secondaria delle proteine
Selectina/proteina glicosilata: solo nei vertebrati. Le selectine fanno prevalentemente
legami di tipo eterofilo. Constano di un piccolo dominio citoplasmatico, un singolo dominio
transmembrana ed una serie di domini extracellulari più grandi, che in genere si legano alle
parti costituite da carboidrati che troviamo sulla membrana cellulare.
Integrine: eterodimeri costituiti da una subunità alfa e una beta diverse tra loro unite da
legame non-covalente. Legano le proteine della ECM (per esempio la fibronectina), entrano
in gioco in interazioni cellula/cellula (ad es. nei leucociti) ed interagiscono con la
superfamiglia Ig.
7
Grieco Nobile/Sanseverino
21 Bionanotecnologie (Ciardelli)
21/04/2022
Meccanismi che regolano l’adesione cellulare
Andiamo ora a vedere che cos’è che regola l’adesione/interazione di una cellula ad una
determinata superficie.
•
Intanto, un concetto importante da ricordare è che la membrana cellulare ha una carica
netta negativa, quindi tendenzialmente tutto ciò che è carico negativamente tende a
respingere le cellule e tutto ciò che è carico positivamente tende ad attrarle.
•
In genere, l’adesione è modulata da (circa 100 tipi di) recettori della superficie cellulare che
si legano a specifiche sequenze peptidiche delle proteine dell’ECM (tipo la fibronectina) o a
molecole diverse (tipo i fattori di crescita o le citochine). Queste molecole si chiamano
ligandi. In assenza di ligandi e quindi in assenza di queste interazioni, l’adesione è di tipo
elettrostatico, quindi carica netta negativa, o è regolata dalla bagnabilità, cioè dalla
tensione superficiale della superficie. (Concetto di bagnabilità: se si mette una goccia
d’acqua su una superficie, si misura l’angolo di contatto e si va a vedere la forma della
goccia, ci si rende conto della bagnabilità della superficie)
Superficie bagnabile
•
-
-
•
Superficie idrofobica
Fattori per controllare la forza delle interazioni:
tensione superficiale;
la carica superficiale aumenta l’adesione;
rugosità superficiale: più è alta AS (area specifica), più le cellule tendono a aderire al
substrato. Qui entra per la prima volta il concetto dell’importanza delle nanotecnologie in
questo contesto perché, anche se le cellule hanno dimensioni micrometriche (quindi come
entità complessiva non riconoscerebbero la nanoscala), in realtà i recettori sulla loro
superficie hanno dimensioni nanometriche e riconoscono la nano-strutturazione delle
superfici. Quindi, tramite una fabbricazione alla nanoscala delle superfici, aumentiamo
l’area specifica, perché ricordiamo che il rapporto area su volume alla nanoscala è alto
perché dipende da 1/L, per cui più piccolo è L, più sarà grande questo rapporto. Quindi, con
la nanotecnologia aumento quest’area specifica e posso aumentare l’adesione cellulare.
Anche senza segnalazione di tipo biochimico, riesco a comunicare con le cellule.
chimica superficiale: tramite la presenza di ligandi di adesione (fibronectina, collagene,
rivestimenti idrofilici) ma anche di gruppi (come, per esempio, il gruppo amminico) posso
avere un aumento dell’adesione.
In certi casi, posso voler evitare quest’adesione cellulare. Basti pensare al caso di una
protesi vascolare, in cui non vogliamo che ci siano coaguli e che le piastrine si attacchino
sulla superficie. In quei casi, si va a rivestire il sistema con un rivestimento carico
negativamente. Per esempio, l’albumina o l’eparina sono proteine solforate che
respingono le cellule, in questo caso le piastrine.
È possibile controllare anche vitalità e crescita cellulare.
8
Grieco Nobile/Sanseverino
21 Bionanotecnologie (Ciardelli)
21/04/2022
- Esempio: cellule nervose su polimeri conduttori.
•
Le cellule diffondono sulla superficie.
Possiamo pensare di rivestire la superficie in modo da indurre
l’adesione cellulare. Ad esempio, si sa che la fibronectina ha delle
sequenze RGD (arginina- glicina- aspartico) che sono responsabili
del legame con le integrine. Quindi, in realtà, l’integrina non si
lega con tutta la fibronectina ma con una sua porzione.
Se funzionalizziamo la nostra superficie polimerica con un gruppo RGD, riusciamo a mimare il
legame che c’è tra cellula e matrice extracellulare. Non abbiamo bisogno di legare tutta la
fibronectina, ma ci si può anche limitare a legare delle sequenze peptidiche in grado di espletare
questa comunicazione.
Spreading cellulare
Andiamo adesso a vedere, dal punto di vista biologico e biomolecolare, come si comporta la cellula
quando incontra una superficie, che può essere una superficie naturale (quindi l’ECM) o una
superficie artificiale.
Lo “spreading” cellulare (appiattimento cellulare) è un processo
che unisce l’adesione cellulare e la rete contrattile intracellulare
(cioè il citoscheletro). Rappresenta la fase immediatamente
successiva all’adesione cellulare.
Quindi cosa fa una cellula?
Inizialmente, mettendo la cellula su una superficie, è
tondeggiante. Poi, ad un certo punto, comincia a tastare la
superficie e cominciano a formarsi delle protrusioni
citoplasmatiche; quindi, la cellula cambia la sua forma e si allunga
sfruttando la mobilità che le fornisce il citoscheletro. Quando ha
formato un certo numero di protrusioni e, se le interazioni sono
efficaci, la cellula può addirittura assumere la forma
completamente appiattita mostrata in figura D.
Questo processo di spread ovviamente si blocca laddove la cellula incontra un’altra cellula. Se,
invece, la lasciamo da sola, rimane in quel modo lì.
9
Grieco Nobile/Sanseverino
21 Bionanotecnologie (Ciardelli)
21/04/2022
Se la superficie non piace alla cellula, allora rimarrà tondeggiante per un po' e poi, probabilmente,
dopo qualche giorno, si staccherà e morirà.
Formazione di punti focali
Il primo processo è, quindi, il processo di adesione, che precede lo spreading. Si ha la formazione
di protrusioni e il primo evento è l’integrina che va a cercarsi un punto di aggancio.
Immaginiamo di aver rivestito con fibronectina la superficie, allora l’integrina andrà a legarsi con
gli RGD della fibronectina nel modo visto prima. La fibronectina si lega ad altre proteine, che sono
la talina e la vinculina (inizialmente in forma inattiva).
Immaginiamo che quello contrassegnato con il numero 1 sia il primo evento e quello con il 2 il
secondo. Qui c’è una scala sia spaziale che temporale, la seconda è già un’adesione focale più
matura in cui le integrine si sono dimerizzate, quindi ce ne sono 2, ci sono 2 taline e 2 vinculine
attive (da inattive sono passate ad attive) legate all’actina.
Intorno al punto di adesione focale, si costruisce poi un citoscheletro, quindi un’organizzazione di
actina che si legherà poi alla miosina e manderà i segnali al nucleo (questo ovviamente nel caso in
cui l’interazione iniziale sia positiva). Se l’interazione iniziale è negativa, il nucleo smette di
sintetizzare integrine e, anzi, quelle presenti vengono distrutte.
Intorno a questi punti di adesione focale, ci sono delle interazioni più deboli, che si chiamano
CLOSE CONTACT (siti meno forti di adesione che in genere circondano l’adesione focale) o semplici
CONTATTI con la ECM (legami elettrostatici tra membrana cellulare e il substrato della matrice).
Questo fenomeno può essere visto sperimentalmente con quella che si chiama
immunoistochimica.
È stato preso un anticorpo (in nero) che riconosce le integrine. L’anticorpo ha allegato un
colorante fluorescente (in rosso). I punti in rosso, nella figura sottostante, sono i punti di adesione
10
Grieco Nobile/Sanseverino
21 Bionanotecnologie (Ciardelli)
21/04/2022
focale perché nella cellula abbiamo colorato le integrine. Le righe verdi, invece, sono degli
anticorpi che riconoscono l’actina, che abbiamo colorato in verde.
È come se fosse una rete di collegamento, una rete neurale, in cui dai punti di adesione si vedono
partire dei filamenti che vanno a comunicare con il nucleo.
Volendo entrare nel dettaglio, nella prossima slide è mostrato tutto il design molecolare.
Qui si vedono:
•
•
le interazioni delle integrine con la superficie esterna
le taline e le varie proteine coinvolte che si legano all’F-actina, la quale, tramite la miosina,
porta la tensione al nucleo e dà il messaggio dal punto di vista molecolare.
Le adesioni focali evolvono, la struttura matura è quella mostrata in figura in cui le integrine sono
collegate a strutture di actina e miosina contrattili. All’inizio, invece, si ha una rete di actina
(chiamata lamellipodi) che serve più allo spostamento della cellula.
La cellula si sposta, trova il contatto, il citoscheletro si riorganizza e una struttura di questo tipo
trasmette il segnale. Tutto questo può essere visto come un meccanosensore che trasforma una
perturbazione meccanica in un segnale che promuove poi la formazione di adesioni focali e attiva
il signalling delle integrine.
Questi fenomeni di adesione sono visibili nei seguenti filmati, nei quali si vede l’interazione cellulasuperficie e cellula-materiale.
•
https://www.youtube.com/watch?v=75ntMVPtP3Y → si vedono 4 cellule e gli spot
luminosi sono proprio i punti di adesione focale.
11
Grieco Nobile/Sanseverino
21 Bionanotecnologie (Ciardelli)
21/04/2022
•
https://www.youtube.com/watch?v=Lto3v22l4MA → qui si vede come lo spreading può
avvenire sia in forma isotropica che in forma anisotropica, a seconda della superficie.
•
https://www.nanolive.ch/pcl-fibers-cell-nanomaterial/ → questo video deriva da un sito di
un sistema di imaging che si chiama Nanolive e fa vedere come le cellule rispondono a
superfici con proprietà diverse; questo è un modo per comprendere il design di
biomateriali per specifiche applicazioni come tissue engineering. In questo video si vede un
osteoblasta che interagisce con fibre di policaprolattone sia lisce che porose; le interazioni
sono un po' diverse a seconda del fatto che il supporto sia poroso o meno. Si vedono i
lamellipodi e filopodi, ovvero le protrusioni che la cellula fa per muoversi tra la cellula e i
pori del PCL, in modo da ancorare la cellula alla superficie. Si vede proprio uno scambio di
materiale tra cellula e fibre. Si pensa che queste vescicolette che stanno nella cellula
contengano proteine della matrice extracellulare, come ad esempio la osteonectina che
serve per far depositare il calcio.
Quindi l’adesione cellulare e lo spreading sono influenzati dalle caratteristiche
chimiche e fisiche del sottostante substrato solido. L’energia libera di superficie
del substrato è collegata allo spreading cellulare. Substrati idrofobici
diminuiscono questo fenomeno che viene invece favorito da superfici idrofiliche
in presenza e assenza di proteine adsorbite.
Adesione cellulare: comportamento successivo
Osservando la forma della cellula a contatto con una certa superficie, è possibile anche trarre delle
indicazioni su quello che la cellula effettivamente sta facendo.
12
Grieco Nobile/Sanseverino
-
-
21 Bionanotecnologie (Ciardelli)
21/04/2022
una cellula tondeggiante e piccola sulla superficie vuol dire che ‘non sta bene’, quindi ha
una bassa viabilità, non sta migrando, proliferando e non sta andando incontro ad un
processo di differenziamento (nel caso di cellula staminale);
un medio spreading invece, dice che si ha una viabilità alta, la cellula tende a migrare e a
proliferare, ma non tende a differenziarsi;
un alto spreading dice che essendoci maggiore differenziamento c’è anche una buona
viabilità, ma sono meno efficienti i processi di migrazione e proliferazione.
Interazione cellula/superficie
È possibile regolare una superficie in maniera che possa favorire i processi di adesione, di
spreading cellulare e formazione dei punti focali, ovvero si creano delle superfici con proprietà
adatte a favorire tali processi, andando a modulare le proprietà superficiali con varie tecnologie ad
esempio:
A- la chimica superficiale che permette di costruire delle funzionalizzazioni dei gradienti della
sequenza RGD che stimolerà l’adesione;
B- si può agire sulla carica superficiale di un substrato dato che se esso è carico positivamente
stimolerà l’adesione, mentre se è carico negativamente la scoraggerà;
C- si può agire sull’idrofilicità, in quanto ci sono dei valori di angolo di contatto (e quindi di
idrofilicità) non troppo alti che favoriscono l’adesione cellulare, mentre comportamenti
diversi possono inibirla;
D- è possibile variare la topografia superficiale;
E- è possibile agire anche sulla rigidezza del substrato.
In A, B, C e D dominano le proprietà di superficie, però anche le proprietà massive, cioè E, possono
avere una certa importanza.
Quindi ci sono questi 5 fattori che si possono modulare:
13
Grieco Nobile/Sanseverino
21 Bionanotecnologie (Ciardelli)
21/04/2022
A. Chimica superficiale
La chimica superficiale, la bagnabilità e la carica superficiale giocano un ruolo fondamentale
nella risposta biologica in termini di adesione cellulare, morfologia, proliferazione e
differenziamento.
È riportata una ricerca in cui sono state prese delle cellule staminali dalla matrice ossea (BMSC)
e sono state coltivate su substrati massivamente uguali, ma funzionalizzati con gruppi diversi:
gruppo amminico, gruppo carbossilico, gruppo
metilico e gruppo ossidrilico.
Da questo esperimento, dopo 7 giorni di coltura
si vede che mentre a e in b c’è uno spreading
buono, in c e d invece si ha una maggiore
percentuale di cellule più tondeggianti.
Questo lavoro è una prima indicazione del fatto
che, a seconda del gruppo funzionale che
influenza la bagnabilità e la carica superficiale, si
ha un comportamento cellulare diverso a
contatto con la superficie.
È riportato anche un altro esperimento.
È stata presa una superficie di controllo non funzionalizzata, poi si utilizzano i gruppi visti prima e
si valuta non solo la forma della cellula qualitativamente col microscopio, ma si fanno anche delle
indagini quantitative.
14
Grieco Nobile/Sanseverino
21 Bionanotecnologie (Ciardelli)
21/04/2022
In B misura l’area complessiva della cellula nei vari casi e si vede che per il gruppo amminico,
gruppo ossidrilico e gruppo metilico si hanno delle differenze significative rispetto al controllo.
In C, guardando la formula della cellula, si misurano anche i prolungamenti primari, secondari e
terziari della cellula e si confrontano con il controllo. Anche in questo caso il gruppo amminico ha
una differenza significativa rispetto al controllo.
Queste due (B e C) possono essere considerate delle analisi più morfologiche, mentre D ed E
rappresentano la parte più ‘molecolare’, in cui si va a vedere effettivamente come questo
contacting viene trasmesso al lavoro che fa il nucleo.
In particolare in D si vede l’espressione genica, ovvero quanto i geni vengono trascritti in mRNA e i
geni che si vanno a vedere sono geni caratteristici del fenotipo osteogenico (quindi quanto le
cellule staminali da polpa dentale umana si stanno trasformando in osteoblasti, ovvero cellule che
sintetizzano l’osso.
In E si vanno a vedere le proteine attraverso il western blot, ovvero delle separazioni
elettroforetiche che poi vengono sviluppate con anticorpi specifici. In E l’intensità della banda
elettroforetica dice quanto beta-actina, ALP ecc, vengono prodotti dalle cellule come proteine.
Quindi, la cosa importante da capire è che variando la chimica superficiale (e quindi agendo
indirettamente sulla bagnabilità e la carica del substrato) sullo stesso materiale, è possibile
influenzare fortemente il comportamento cellulare. Ad esempio, semplicemente con una
funzionalizzazione superficiale si riesce ad indurre differenziamento cellulare.
B. Carica superficiale
La presenza di una carica superficiale influenza significativamente la capacità delle cellule di
aderire al substrato. In particolare, essendo la membrana cellulare carica negativamente, tale
capacità è incrementata in presenza di superfici che espongono carica positiva mediante la
formazione di interazioni elettrostatiche.
È riportato un esperimento.
15
Grieco Nobile/Sanseverino
21 Bionanotecnologie (Ciardelli)
21/04/2022
Sono riportate delle superfici a carica positiva crescente verso il basso, misurata con misurazione
di potenziale Zeta. Le superfici hanno un’aumentata carica positiva e si vede che dopo 4 ore le
cellule proliferano molto meglio sulla superficie carica positivamente; dopo un giorno si vedono le
cellule adese. Inoltre, il lavoro complessivo dice anche che aumenta l’attività della fosfatasi
alcalina nelle cellule e l’espressione genica della chinasi di adesione focale e marker osteogenici.
Quindi aumentando le interazioni elettrostatiche con le cellule si può influenzare il loro
comportamento e la loro espressione genica.
C. Bagnabilità superficiale
La bagnabilità superficiale è un fattore determinante nell’adesione e proliferazione cellulare. In
particolare, risultati migliori si riescono ad ottenere con superfici moderatamente bagnabili,
ovvero con angolo di contatto tra 70° e 80°. Superfici idrofobiche e idrofiliche vedono la presenza
di cellule tondeggianti o appiattite.
Spiccata idrofobicità e spiccata idrofilicità limitano l’adesione: 106 gradi vuol dire una forte
idrofobicità fa si che le cellule siano più tondeggianti sulla superficie e poco adese; a 80 gradi c’è
una buona adesione anche se lo spreading è più ampio (questo non è detto che sia un fattore
positivo); a 0 gradi si ha una superficie molto bagnabile e la cellula tende a spiaccicarsi in maniera
più evidente.
Non è ancora evidente, invece, una correlazione tra bagnabilità superficiale e differenziamento
cellulare.
16
Lachello/Palladino
22 Bionanotecnologie (Ciardelli)
22/04/2022
TOPOGRAFIA
Nella lezione precedente è stato esposto come modificare la chimica superficiale, la carica
superficiale e la bagnabilità, che sono 3 elementi che possono influenzare la risposta cellulare.
Quando le cellule vengono a contatto con la matrice, è stata anche citata la topografia quindi è
stato valutato come le superfici lisce, rugose, allineate o con strutture disordinate determinano in
maniera diversa la risposta delle cellule al substrato e che in certi casi le cellule possono anche
seguire l'orientamento del substrato stesso e questo può essere utile per la funzionalità finale
delle cellule stesse ed eventualmente del costrutto bioingegnerizzato che si è realizzato.
Ci sono dei tessuti che in particolare hanno come caratteristica propria quella dell'anisotropia,
tipico è il tessuto muscolare piuttosto che il tessuto nervoso. Questa strutturazione (rugosità) in
inglese si chiama patterning: fornisco una geometria al substrato che può svilupparsi sia alla micro
che alla nanoscala con effetti diversi sulle cellule.
•
•
Micropatterning: influenza la posizione cellulare, la crescita, la morfologia e la
riorganizzazione del citoscheletro
Nanopatterning: promuove l'adsorbimento di proteine e conseguentemente la migrazione
cellulare, lo spreading di cui è stato parlato precedentemente, la proliferazione il
differenziamento, l'espressione genica e l'integrazione con i tessuti.
Si evince da questo elenco che la strutturazione alla nanoscala ha un effetto molto più impattante
sulla risposta cellulare e sui processi cellulari e fisiologici, in figura c'è un esempio di costruzione di
membrane nanofibrose a base di gelatina mediante la tecnica dell'elettrofilatura. Questa è una
tecnica che permette, filando una soluzione polimerica e inserendola in un campo elettrico, di
produrre delle fibre di dimensioni nanometriche e, a seconda di come si progetta il sistema di
raccolta, si possono ottenere delle fibre disposte in maniera casuale (A) oppure delle fibre con un
orientamento prevalente(B).
In questo lavoro sono state ottenute delle fibre di gelatina. La gelatina di fatto è collagene
denaturato, non più organizzato nella tripla elica, nonostante ciò è un materiale che mantiene dei
buoni gruppi e sequenze peptidiche di adesione cellulare. Sono state messe a confronto delle
superfici di controllo, in questo caso capsula Petri di polistirene o vetro e cellule coltivate su
strutture elettrofilate disordinate o su strutture elettrofilate allineate. Su queste superficie sono
state coltivate cellule di Schwann (C) che sono dei fibroblasti. Considerando gli assoni, che sono
quelle cellule che trasmettono impulsi nervosi, essi sono circondati da un rivestimento che si
1
Lachello/Palladino
22 Bionanotecnologie (Ciardelli)
22/04/2022
chiama guaina mielinica, questa guaina ospita le cellule di Schwann. Quindi come se fosse un
connettivo che circonda e protegge l'assone e queste cellule sono state coltivate appunto sui due
substrati in confronto con la piastra di coltura.
La differenza più eclatante che emerge è che sulle strutture allineate, le cellule si sono orientate in
una specifica direzione e a livello di rigenerazione è importante perché queste strutture sono
allineate in lunghezza. Per esempio, se si avesse un danneggiamento di una parte dell'assone
quello che si può fare è costruire una guida polimerica, ossia un tubo che ricongiunge i due
monconi danneggiati, si otterrà il conseguente orientamento delle cellule Schwann che andranno
a rivestire il tubo che quindi potrà poi ospitare l'assone, poi idealmente il tubo sarà degradabile,
degradatosi, rimane solo la guida e quando l'assone si è rigenerato e riconnesso. Questo lavoro è
stato effettutato per il Tissue Engeneering del sistema periferico, i migliori risultati sono ottenuti
quando si è riuscito a ottenere l'allineamento con queste nanostrutture delle cellule in coltura.
Proprietà meccaniche
Differiscono dalle altre proprietà perché sono proprietà più massive, meno di superficie, però in
questo caso la rigidezza del substrato gioca un ruolo fondamentale nel indurre determinate
morfologie cellulari. In risposta alle proprietà meccaniche nel substrato una cellula può
proliferare, differenziare, crescere, morire, cioè ricevere degli stimoli del tipo di quelli presenti in
natura prevalentemente sono demandati a segnali di tipo biochimico, quindi anche controllando la
rigidezza di un substrato si può indurre la cellula a dei comportamenti diversi che poi derivano
dalla modifica dell'espressione genica.
Nella figura cellule staminali da matrice ossea coltivate per 28 giorni su substrati con valori di
modulo di compressione diversi. Le cellule si espandono maggiormente sul substrato con un
valore di rigidezza pari a 24kPa, mentre mostrano una morfologia allungata su substrati più soft
(A1, A2).
Questo valore di modulo elastico è
confrontabile con quello che si
ritrova nell'osso, mentre tutti questi
altri tessuti hanno dei moduli più
bassi.
2
Lachello/Palladino
22 Bionanotecnologie (Ciardelli)
22/04/2022
Chiaramente è importante dal punto di vista chimico che il substrato sia lo stesso perché
altrimenti si introdurrebbe un'altra variabile, quello che si fa è realizzare dei materiali, degli
idrogeli, a diverso grado di reticolazione che hanno le stesse proprietà chimiche ma hanno diverse
proprietà meccaniche perché il grado di reticolazione è diverso.
Pertanto, il fine è progettare dei dispositivi dei biomateriali costituenti che appunto riescano a
comunicare questi segnali alle cellule in maniera opportuna.
LA STORIA DEI BIOMATERIALI
BIOMATERIALE: un materiale concepito per interfacciarsi con sistemi biologici per valutare,
supportare e sostituire un qualsiasi tessuto organo o funzione del corpo.
•
Dagli anni ‘50, I° generazione, si cominciò a prendere dei materiali utilizzati per altre
applicazioni e a utilizzarli a contatto con il corpo umano con la speranza che fossero
bioinerti, cioè che non provocassero una risposta negativa da parte del corpo e quindi
venissero rifiutati. Per esempio, la gomma siliconica era un materiale abbastanza inerte
che si provò a utilizzare in campo medicale e diede buoni risultati.
•
Dagli anni ‘70, II° generazione, si cominciò a introdurre il concetto di bioattività, cioè si
richiedeva al materiale che non fosse solo inerte, ma che ,una volta impiantato, svolgesse
funzioni controllabili all'interno dell'organismo. Una di queste funzioni richieste era la
degradabilità soprattutto per quelle applicazioni in cui si voleva una azione temporanea
che poi nel tempo lasciasse il posto a un tessuto o una funzione completamente rigenerata
in maniera biologica.
•
Dal 2000, III° generazione, si è cominciato a introdurre questo concetto di capacità del
biomateriale di stimolare delle reazioni cellulari particolari: attrarre le cellule, indurne il
comportamento, e quindi di imitare quello che accade in natura, per tale motivo si coniò il
termine di biomimeticità.
3
Lachello/Palladino
22 Bionanotecnologie (Ciardelli)
22/04/2022
INTERAZIONE BIOMATERIALE/PROTEINE
Quando un biomateriale entra in contatto con fluidi biologici/tessuti, quindi il siero piuttosto che il
plasma sanguigno, viene rapidamente rivestito da uno strato proteico adsorbito sulla superficie e
tale strato assorbito è quello che il sistema immunitario vede, infatti l’azione immunitaria non
viene direttamente provocata dall'impianto ma dalla presenza di questo strato proteico. In
funzione dell'interrogazione del tratto assorbito del materiale, che ha provocato il suo
assorbimento da parte delle cellule del sistema immunitario (neutrofili e macrofagi), vengono
emessi dei segnali che possono essere di vario tipo.
•
•
Segnale positivo, il materiale non è riconosciuto come estraneo, vengono reclutate cellule
di tipo riparatore: fibroblasti e cellule mesenchimali, e l'impianto viene integrato in
maniera efficace nel tessuto.
Segnale negativo, il materiale è riconosciuto come estraneo, si forma quella che si chiama
capsula fibrotica e tessuto di granulazione che è un sistema che l'organismo utilizza per
isolare il biomateriale e per tentarne la degradazione con sostanze aggressive, le quali
vengono secrete all'interno del tessuto di granulazione .
Le proteine sono costituite aminoacidi che hanno varie caratteristiche dal punto di vista chimico,
esistono amminoacidi basici, acidi, neutri, polari, idrofobi. Le proteine sono in genere costituite da
domini diversi con caratteristiche diverse dal punto di vista della polarità, della idrofobicità ecc..
Trovano un loro dominio che è in grado di interagire efficacemente nel biomateriale in funzione
della sua natura, quindi se un materiali è idrofilico, le porzioni idrofiliche della proteina
4
Lachello/Palladino
22 Bionanotecnologie (Ciardelli)
22/04/2022
tenderanno ad avvicinarsi al biomateriale stesso, questo può provocare variazioni della
conformazione della proteina che tende a riarrangiarsi nello spazio per massimizzare le interazioni
con il biomateriale, ciò provoca variazioni conformazionali o variazioni dell'orientamento. Può
accadere che la proteina perda la sua conformazione nativa quindi si denaturi, anche
parzialmente, e il risultato sarà un rifiuto da parte dell'organismo dello strato proteico assorbito
(quello interrogato).
Allo stesso modo superfici che abbiano spiccate caratteristiche idrofobiche o idrofiliche che siano
quindi ultraidrofobiche o ultraidrofiliche minimizzano questo assorbimento proteico perché sono
agli estremi di questo concetto, mentre le proteine sono qualcosa di ibrido, hannno varie
proprietà, quindi, non gradiscono l'estremizzazione di queste proprietà.
Rappresentazione schematica del processo di
denaturazione, e conseguente perdita della
conformazione, di una proteina adsorbita al
trascorrere del tempo.
Rappresentazione schematica del processo di
adsorbimento di una proteina in diversi
orientamenti.
Con l’immagine sotto si ripete tale concetto, aggiungendo che si è in fase acquosa, si considera
l'acqua di idratazione che può essere presente sulla superficie del biomateriale ed è l’insieme
della superficie, dell'acqua assorbita e delle proteine che determina l'aspetto esteriore
dell'impianto nel momento in cui viene interrogato dalle cellule. Se lo strato alla fine è nella sua
conformazione nativa (proteine nella loro conformazione nativa) la risposta cellulare è positiva, se
invece c'è una denaturazione, lo strato viene riconosciuto come estraneo e c'è una risposta
negativa.
Le proteine possono denaturarsi sulla superficie, annullando la loro funzionalità, o possono
riarrangiarsi per alterare la loro funzione.
•
•
•
Forze entropiche associate con lo spostamento di
acqua adsorbita sulla superficie (solvente), e aumento
delle configurazioni delle proteine adsorbite rispetto a
quelle in soluzione.
Localmente elevata concentrazione alla superficie
(può essere dipendente dalla concentrazione)
Siti di legame possono essere occlusi o la
conformazione alterata
5
Lachello/Palladino
22 Bionanotecnologie (Ciardelli)
22/04/2022
Un altro aspetto da considerare quando siamo a contatto con il siero è che vi è un grande numero
di proteine di dimensioni diverse, di concentrazione diversa. Questo è descritto dall’effetto
Vroman.
Il plasma contiene oltre 100 proteine. L’effetto Vroman descrive l’adsorbimento di proteine
diverse nel tempo. Vroman dimostrò che l’assorbimento di siero su una superficie è un processo
dinamico in cui prima arrivano le proteine a basso peso e alta concentrazione(1A). Esse sono poi
sostituite da proteine più grosse presenti in minore concentrazione, ma che hanno una maggiore
affinità per la superficie (1C) o abbiano dimensioni maggiori e quindi diffondano più lentamente.
All'inizio la cinetica fa prevalere la presenza di un certo tipo di proteina (sferette viola), ma ,in
seguito, queste per effetto termodinamico per la maggiore stabilità del legame con le proteine di
tipo diverso (ciambelline), sostituiscono le proteine assorbite inizialmente. Per tale motivo si
afferma che l'assorbimento sul materiale è un processo dinamico, poiché una volta che si sono
legate le proteine più interagenti al substrato non si torna più indietro, cioè il processo inverso di
sostituzione di una proteina ad alta affinità con una proteina a bassa affinità non è più possibile.
Detto questo la strategia da seguire potrebbe sembrare semplice, occorre però avvertire che se
queste cose funzionano molto bene in vitro, non è detto che funzionino allo stesso modo in vivo.
Per i motivi già detti, le superfici assorbono in vitro proteine diverse e hanno caratteristiche
superficiali diverse e inducono una differente adesione proliferazione cellulare. In vivo molti
biomateriali non hanno dato risposte molto simili fra loro in termini di integrazione e
biocompatibilità, i motivi sono diversi:
•
•
•
•
In vivo viene assorbito uno strato complesso e non specifico di proteine
Questo strato, diverso da materiale a materiale contiene fino a 200 proteine più o meno
orientate e denaturate
La natura non utilizza questi strati aspecifici, ma solo poche, specifiche proteine in
conformazioni fissate
Questi strati specifici non sono riconosciuti sono visti come estranei e da eliminare
Le strategie di funzionalizzazione devono essere tali da controllare la conformazione,
l'orientamento delle proteine in maniera precisa in modo che ci sia un riconoscimento specifico
da parte dell'organismo.
6
Lachello/Palladino
22 Bionanotecnologie (Ciardelli)
22/04/2022
PROGETTARE E COSTRUIRE MATERIALI BIOMIMETICI
Poiché le interazioni cellula-scaffold avvengono principalmente all’interfaccia e poiché da esse ne
deriva il comportamento delle cellule, è necessario implementare ben precise “strategie di
superficie” per controllare le interazioni biologiche con i biomateriali.
Le strategie biomimetiche tentano di emulare i metodi della natura per preparare superfici più
funzionali e controllabili, in modo da ottenere funzionalità e specificità del dispositivo impiantato.
Modulare le proprietà del materiale attraverso la modifica superficiale è considerata una strada
promettente per migliorare le interazioni cellula-materiale e la biocompatibilità senza alterare le
proprietà massive del materiale stesso.
MODIFICA SUPERFICIALE DEI BIOMATERIALI
La modifica superficiale è definita come un rivestimento o una modifica della superficie del
materiale mediante tecniche fisiche, chimiche e biologiche al fine di sviluppare materiali con
funzionalità diverse da quelle presenti nel materiale nativo.
La più semplice strategia per migliorare la risposta biologica dei biomateriali è esporre sulla
superficie gruppi funzionali (-NH2, -COOH, -OH) perché, come visto prima, questi sono in grado di
modulare l’adesione, lo spreading e la proliferazione cellulare.
7
Lachello/Palladino
22 Bionanotecnologie (Ciardelli)
22/04/2022
MODIFICA SUPERFICIALE: AMMINOLISI
Gruppi funzionali diversi esposti da superfici che abbiano le stesse caratteristiche possono
influenzare in maniera diversa il comportamento cellulare e questo può essere fatto modificando
le superfici con varie tecniche. Una di queste è l’amminolisi è una tecnica di modifica chimica
utilizzata per esporre sulla superficie del materiale dei gruppi amminici che possono essere
utilizzati direttamente per indurre una precisa risposta biologica (modifica primaria) oppure
possono essere utilizzati come agganci per ancorare biomolecole (modifica secondaria); quello che
si può fare è utilizzare una diammina con una catena abbastanza lunga e effettuare un amminolisi
e quindi una lisi a livello del legame estereo.
In figura presente il poliidrossibutirato che è un poliestere e presenta dei legami estere sulla
superficie. Facendolo reagire con un’ammina, si ha la sostituzione nucleofila cinica, si forma un
legame ammidico, con il rilascio di una molecola di alcol, ovviamente si usa una diammina che
presenta dei gruppi amminici liberi.
Confrontando il materiale PHB in forma di superficie liscia e di superficie fibrosa, nelle forme sia
normali che dopo amminolisi, si nota che dopo quattro ore, un giorno e tre giorni, vi è una
migliore interazione con i substrati fibrosi rispetto a quelli lisci. Tuttavia la forma migliore che
permette di visualizzare la cellula con i suoi pseudopodi ben estesi e che presenta una migliore
interazione con un substrato fibroso è quella che ha subito l’amminolisi.
MODIFICA SUPERFICIALE: IDROLISI
L’idrolisi è una tecnica di modifica chimica utilizzata per esporre sulla superficie del materiale dei
gruppi carbossilici e idrossilici che, come per l’amminolisi, possono essere utilizzati direttamente
per indurre una precisa risposta biologica oppure essere utilizzati come agganci per ancorare
biomolecole. Se si prende in considerazione il polilatticoglicolicolo (poliestere), in catena sono
presenti dei legami esteri che vengono fatti reagire con l’acqua ottenendo un alcol, che
successivamente viene eliminato.
8
Lachello/Palladino
22 Bionanotecnologie (Ciardelli)
22/04/2022
Di fatto anche in questo caso vi è una diminuzione del peso molecolare perché dalla rottura dei
gruppi esteri in catena vengono esposti dei gruppi carbossilici prima non presenti.
L'esempio pratico specifico lavora su delle microsfere, ma potrebbero essere delle fibre caso
preparate anche in questo caso con il metodo dell’emulsione doppia, già affrontata nelle lezioni di
nanomedicina. Sul PLGA, in soluzione di idrossido di sodio, si fa un idrolisi lavorando a pH basico,
che porta alla formazione dei gruppi carbossilici sulla superficie della microsfera. Questo è visibile
indirettamente al microscopio elettronico perché le sfere prima e dopo il trattamento presentano
una maggiore porosità. Non è quindi presente una risposta cellulare ma si ha solo l'evidenza del
fatto che facendo la lisi venga rimosso anche del materiale, siccome si effettua una degradazione
del polimero ottenendo una maggiore porosità.
MODIFICA SUPERFICIALE: COATING DI POLI-DOPAMINA
L’utilizzo di molecole che autopolimerizzano sulla superficie del
materiale è una valida alternativa per migliorare le proprietà
biologiche mediante processi semplici che richiedono blande
condizioni di reazione. Tra questi, la dopamina è una molecola
contenente strutture catecoliche, con gli OH legati al benzene ed
molto utilizzata perché è in grado di autopolimerizzare formando
un rivestimento omogeneo di polidopamina mediante semplice
immersione in soluzioni acquose alcaline a pH 8,5.
9
Lachello/Palladino
22 Bionanotecnologie (Ciardelli)
22/04/2022
È un processo molto semplice non richiede reagenti e
vedendo al microscopio si nota che la rugosità è molto
aumentata, influenzando la risposta cellulare.
Altro parametro che cambia l’angolo di contatto che passa da
84° a 64° quindi aumenta la bagnabilità, ritrovandosi in una
zona in cui la bagnabilità influenza in maniera sensibile la
risposta cellulare.
MODIFICA SUPERFICIALE: TRATTAMENTO AL PLASMA
Un altro metodo molto utilizzato è il trattamento al plasma.
Il plasma può essere definito come un gas parzialmente o totalmente ionizzato costituito da un
numero circa uguale di particelle cariche positivamente e negativamente. È anche definito come il
quarto stato della materia, poiché, pur non essendo né liquido né solido, possiede proprietà simili
a quelle dei gas e dei liquidi. Esso si forma quando in una sfera gassosa si fa avvenire una scarica
elettrica, in natura succede quando ci sono i temporali: il gas da essere in forma atomica viene
trasformato in una miscela di ioni radicali specie monoatomiche e diventa un oggetto molto più
reattivo.
Esistono due diversi tipi di trattamento al plasma: plasma ad alta temperatura (thermal plasma) e
plasma a bassa temperatura (cold plasma).
•
Thermal plasma: trattamento che prevede il raggiungimento di elevate temperature e,
quindi, impiegato principalmente per la modifica di superfici altamente resistenti (es.
metalli), quello che si usa per esempio per trattare metalli cosiddette torcia al plasma
•
Cold plasma: trattamento che non prevede l’impiego di temperature elevate e a pressione
ridotta, ampiamente utilizzato per la modifica superficiale di materiali polimerici per
applicazioni nell’ambito della medicina rigenerativa e dell’ingegneria dei tessuti.
Plasma a bassa temperatura
Si tratta di gas ionizzati (particelle cariche e neutre e specie atomiche) a pressioni comprese tra 0.1
e 2 torr generati all’interno di camere a vuoto in cui sono stati eliminati i gas atmosferici. Il
mantenimento di basse temperature è assicurato dall’impiego di basse pressioni che limitano la
probabilità di collisioni tra particelle e molecole.
10
Lachello/Palladino
22 Bionanotecnologie (Ciardelli)
22/04/2022
Rappresentazione schematica dell’apparato per il trattamento al plasma. La pompa a vuoto
rimuove i gas atmosferici dalla camera di reazione, la quale viene successivamente riempita con
gas a bassa pressione. Il generatore energizza i gas presenti nella camera producendo il gas plasma
che, interagendo con la superficie del materiale, trasferisce la sua energia alla superficie del
campione. Il trasferimento di energia viene dissipato all’interno del campione attraverso una serie
di processi fisici e chimici che, in ultimo, risultano in una modifica della superficie senza alterazione
delle proprietà massive. La profondità del trattamento al plasma generalmente varia da centinaia
di angstrom a decine di nanometri.
La modifica dipende dal tipo di gas e dagli altri parametri di processo, ma sempre limitata a uno
spessore abbastanza ridotto del materiale in oggetto. Ad esempio, in seguito alla variazione di
potenza del generatore di radiofrequenza che si utilizzata, si possono ottenere delle rugosità
diverse, come si può notare in figura sotto.
Si parte da un substrato di polipropilene (PP) non trattato e con un profilometro si va a valutare la
sua rugosità. All'aumentare della potenza della scarica elettrica si ha un aumento della rugosità,
inoltre questa è maggiore se usate aria anziché ossigeno.
•
•
•
Mettendo ossigeno si introducono degli atomi di ossigeno e quindi dei gruppi OH sulla
superficie.
Usando ammoniaca o azoto si introducono degli azoti e quindi si può introdurre dei gruppi
NH2.
Gas inerti, quindi non reattivi, per esempio gas nobili come elio e argon invece generano
dei radicali sulla superficie che poi sono esposti sulla superficie, reagiranno con l'aria a dare
dei gruppi ossidrilici oppure potrebbero essere utilizzati per innescare delle
11
Lachello/Palladino
22 Bionanotecnologie (Ciardelli)
22/04/2022
polimerizzazioni, come detto in precedenza, in presenza di radicali con certi specifici
monomeri è possibile iniziare la polimerizzazione. Nella polimerizzazione radicalica si
utilizzano monomeri insaturi, cioè che contengono il doppio legame, particolari monomeri
acrilici, vinilici o vinilidenici.
In particolare se si attiva la superficie generando dei radicali liberi per esempio con un gas argon,
quando colpisce il materiale generiamo specie attive che sono anche dei radicali, se poi si aggiunge
per esempio un monomero insaturo come l’acido acrilico si può ottenerne la polimerizzazione, di
fatto otteniamo un polimero abbastanza ingarbugliato e che però espone questi gruppi carbossilici
sulla superficie.
La modifica superficiale tramite trattamento al plasma prevede un processo composto di due fasi:
1. Attivazione della superficie o Etching: è la fase in cui vengono generati dei radicali liberi sulla
superficie del campione fornendo energia al gas con il quale è stata riempita la camera di reazione;
2. Grafting o polimerazzione: è la fase in cui i radicali liberi vengono utilizzati per aggraffare e far
polimerizzare un monomero sulla superficie. Il monomero deve essere introdotto nella camera di
reazione in forma di gas/vapore.
Rappresentazione schematica del processo di trattamento al plasma di polveri poliuretaniche
(CHP407) per esporre sulla superficie gruppi carbossilici. Attivazione della superficie (etching)
mediante formazione di radicali liberi in presenza di gas Ar ed esposizione di gruppi –COOH sulla
superficie delle polveri mediante grafting/polimerizzazione di vapori di acido acrilico.
Rispetto ad altre tecniche di modifica superficiale, il trattamento al plasma presenta numerosi
vantaggi ed è ampiamente utilizzato per la modifica di materiali per applicazioni biomedicali:
✓ Trattamento a passo impatto ambientale, non si usano solventi
✓ è molto versatile perché a seconda di come definite il processo potrebbe esporre superfici
funzionalità diverse
✓ Modifica superficiale preservando le proprietà massive
✓ Può essere condotto su superfici a geometria più o meno complessa (film, polveri,
membrane fibrose, scaffold 3D)
✓ Può introdurre una rugosità superficiale modulabile in funzioni dei parametri di processo
✓ Può essere facilmente combinato con altre tecniche di modifica superficiale
12
Lachello/Palladino
22 Bionanotecnologie (Ciardelli)
22/04/2022
MODIFICA SUPERFICIALE: CHIMICA DELLE CARBODIIMMIDI
La chimica delle carbodiimmidi è una chimica ampiamente utilizzata quando si intende modificare
la superficie del materiale per esporre biomolecole specifiche (ad esempio, peptidi di adesione o
proteine) e richiede la presenza di gruppi amminici o carbossilici sulla superficie che si vuole
funzionalizzare.
Questa chimica prevede, infatti, l’interazione tra un’ammina (primaria o secondaria) e un gruppo
carbossilico, con la formazione di un legame ammidico (secondario o terziario) mediato da agenti
di grafting detti carbodiimmidi. L’1-ethyl-3-(3-dimethylaminopropyl)carbodiimide (EDC) e l’Nhydroxysuccinimide (NHS) sono le carbodiimmidi maggiormente utilizzate poiché solubili in acqua.
Ciò che fanno è trasformare il gruppo carbossilico COOH in gruppo estereo, dove però il gruppo R
è un estere attivato e suscettibile dell'attacco nucleofilo del gruppo amminico. Si rende quindi
inizialmente più reattivo il gruppo carbossilico, poi con una molecola contenente un gruppo
amminico si crea il legame covalente. Lo scopo è immobilizzare la “stella” sulla superficie
ottenedno questo risultato attrvaero la creazione del legame ammidico tramite la chimica delle
carbodiammide. Si deve tuttavia prestare attenzione usando un pH acido per l'attivazione e poi
abbassandolo, superando la pKa dello specifico NH2. È necessario quindi che questo sia protonato
altrimenti si ha la perdota della capacità nucleofila e quindi si avrà la funzionalizzazione. È un
metodo molto usato di funzionalizzazione delle superfici.
Esempio specifico, c'è l'applicazione specifica di questo approccio:
13
Lachello/Palladino
22 Bionanotecnologie (Ciardelli)
22/04/2022
Il substrato specifico quindi quello chiamato sample è policaprolattone (PCL) sempre in forma di
fibre, miscelato con fibre di acido poliantranilico, che lo rende un pochino più idrofilo. L’angolo di
contatto del PCL è 133° quindi molto idrofobico, mettendo l’acido antranilico passa a 106°, un
pochino meno idrofobico. Su questo sistema si fa esporre i gruppi carbossilici sfruttando quelli
presenti nell'acido antranilico, aggiungendo la miscela NHSDC (formula delle n-idrossi-succinammide) alla carbodimmide, si osserva come ci sia un azoto quaternario legato a un cloro. L’azoto
protonato rende il materiale solubile in acqua perchè è di fatto è un sale e quindi è solubile.
Nell’immagine si osserva la presenza del legame CN delle diammidi (l’immide è una base di Schiff),
che si attiva formando un estere attivo. Aggiungendo l’RGD che possiede il gruppi NH2 ( tre
amminoacidi) si fa formare un legame ammidico ottenendo la sequenza amminoacidica argininaglicina-aspartico che viene riconosciuta per esempio nella fibronectina dalle integrine.
La superficie di policaplottone e poliacidoantranilico in realtà non è altro che una mimica della
matrice extracellulare. E’ stata testata la risposta biologica queste sono immagini al microscopio
elettronico e al microscopio di fluorescenza, si vede il PCL, PCL acidoantranilico, PCL
acidoantranilico in RGD, su tale superficie trovate una copertura di cellule maggiore e questo si
vede anche alla immunofluorescenza che evidenzia tutti i nuclei con il citoscheletro.
Dalla analisi qualitativa si passa ad una quantitativa se si considera la colonna verde che
rappresenta il materiale modificato con RGD si vede che al giorno uno presenta un maggior
numero di cellule rispetto agli altri substrati (miscela non funzionalizzata, miscela, solo prollatone
e vetro per coltura cellulare). Questa quantità maggiore si mantiene nel tempo (asterischi e barre
stanno a dire che le differenze sono significative), in tutti i casi non è solo più alta ma è
significativamente più alta anche se considerate l'errore, e nel tempo inoltre c'è una buona
proliferazione.
Rispetto ad altre tecniche di modifica superficiale, la chimica delle carbodiimmidi presenta
numerosi vantaggi ed è ampiamente utilizzato per la modifica di materiali per applicazioni
biomedicali:
✓ Trattamento a basso impatto ambientale (trattamento green)
✓ Possibilità di aggraffare qualsiasi molecola purchè presenti un gruppo amminico o un
gruppo carbossilico
14
Lachello/Palladino
22 Bionanotecnologie (Ciardelli)
22/04/2022
✓ Trattamento ad elevata citocompatibilità perché i reagenti di grafting non prendono parte
alla formazione del legame, ma vengono eliminati al termine del processo
✓ Può essere facilmente combinato con altre tecniche di modifica superficiale
✓ La reazione, e quindi il grado di funzionalizzazione, è facilmente controllabile agendo sui
parametri di processo (pH e tempo di reazione)
MODIFICA SUPERFICIALE: PHOTOGRAFTING
Il photografting è una tecnica di modifica superficiale che prevede l’interazione tra un gruppo
fotosensibile esposto sulla superficie del substrato e un gruppo fotosensibile, esposto sulla
biomolecola, che si vuole aggraffare mediante la formazione di un legame covalente indotto
dall’irraggiamento con una fonte luminosa UV/Visibile in presenza di un fotoiniziatore.
Si ha un gruppo fotosensibile della biomolecola, cioè una specie che è reattiva con la luce. La
superficie avrà a sua volta un gruppo fotosensibile, anche questo è reattivo con la luce quindi
ovviamente la biomolecola si porterà dietro la parte funzionale, potrebbe essere RGD. A questo
punto semplicemente si mette il fotoiniziatore, cioè una specie che rende possibile la reazione
chimica, si accende la luce con raggio UV o meglio ancora visibile, si forma il legame chimico
catalizzato dall'irraggiamento tra il gruppo fotosensibile e il gruppo più attivo, ma indirettamente
vi è un legame covalente tra il campione e il gruppo attivo quindi si funzionalizza semplicemente
con un irraggiamento, qui sotto l'esempio pratico.
La parte funzionale, in questo caso è l'eparina, che ha dei gruppi solfato SO3- che possono reagire
con la succiniammide (raggruppamento nero) e azidobenzailossi (parte viola). Gli azidobenzalossi
costituiscono la parte reattiva alla luce (quadratino rosso) quindi in questo primo passaggio si crea
il legame tra l'eparina e l’azzidobenzailossisuccinammide (pallina verde-quadratino rosso), si
accende la luce, si attendono 3 minuti e si mette il substrato legando in questo modo l’eparina.
15
Lachello/Palladino
22 Bionanotecnologie (Ciardelli)
22/04/2022
Rispetto a tecniche di modifica superficiale più convenzionali, il photografting presenta numerosi
vantaggi per la modifica di materiali per applicazioni biomedicali:
✓ Trattamento a basso impatto ambientale (trattamento green)
✓ Trattamento molto veloce e possibilità di modulare il grado di funzionalizzazione con
elevata precisione
✓ Trattamento ad elevata citocompatibilità perché il fotoiniziatore ed eventuali componenti
non reagite possono essere facilmente rimosse
✓ Può essere combinato con altre tecniche di modifica superficiale
MODIFICA SUPERFICIALE: AVIDINA/BIOTINA
Metodo di modifica superficiale, sfrutta l'interazione più forte che esiste in natura dal punto di
vista biologico non covalente, che è l'interazione fra la avidina e biotina.
L’avitina è una proteina nei mammiferi, mentre nei batteri si chiama streptavidina (ad esempio lo
streptococco), e ha quattro tasche molecolari che possono ospitare la biotina che è invece una
molecola organica, una vitamina (B12). Ogni molecola di avidina presenta 4 siti di legame, ciascuno
per una molecola di biotina.
Se la biotina è collegata a una biomolecola funzionale e quindi ad una proteina, per esempio la
fibronectina piuttosto che un gruppo RGD, quello che si può creare è un legame che non è
covalente ma è comunque molto forte perché c'è un'interazione molto forte, in pratica ci sono
interazioni legame idrogeno all'interno della tasca. Si possono legare alla avidina le biomolecole
perché si può immaginare di immobilizzare la avidina su un substrato e legarci la mia biomolecola
biotinilata.
Quindi una superficie con la streptavidina molto versatile invece potete attaccare diverse
biomolecole a seconda di cosa di cosa ci fate reagire
Vantaggi
✓ Elevata specificità, affinità e stabilità del legame
✓ È il più forte legame non covalente esistente
✓ Interazione indipendente da temperatura, pH, agenti denaturanti
16
Lachello/Palladino
22 Bionanotecnologie (Ciardelli)
22/04/2022
Svantaggi
 Difficoltà nell’avere un’alta densità superficiale di avidina a causa dell’ingobro perché
comunque la la streptavidina o avidina è una proteina abbastanza grande occupa spazio
sulla superficie, non si riesce ad avere densità di funzionalizzazione efficace in certi casi e
inoltre si possono avere delle agglomerazioni dal fatto che comunque ogni avidina si
prende quattro biotina e quindi quattro molecola quindi potete trovare troppe molecole
agglomerate nello stesso punto
 Possibilità di effetti di clustering a causa dell’affinità tetravalente
 Immunogenicità nei sistemi viventi
MODIFICA SUPERFICIALE: IMPRONTA MOLECOLARE
La tecnologia molecular imprinting è un approccio intelligente per la modifica di superfici
polimeriche attraverso l’introduzione di siti di riconoscimento specifici per le biomolecole.
Trasferire i concetti di riconoscimento che ci sono in campo topologico i più famosi sono l’enzimasubstrato piuttosto che anticorpo-antigene e un altro potrebbe essere streptavidina-biotina
trasferirli sul sistema sintetici.
Questo processo prevede 3 fasi:
1. Si prende la molecola stampo template che si vuole sia riconosciuta dal sistema finale, si
inseriscono delle molecole di reticolante e dei monomeri funzionali che devono essere in
grado di interagire a livello molecolare con la molecola stampo , quindi viene mescolato il
tutto, lasciato complessare i monomeri con lo stampo, si crea quindi il complesso di prepolimerizzazione.
2. Si inserisce quello che è necessario (es. iniziatore, scaldate sistema ecc) e comincia la
polimerizzazione che è contemporaneamente anche una reticolazione, alla fine si ottiene
un gel molto stretto, molto duro e compatto con incastonato all'interno le molecole
stampo legate ai gruppi funzionali delle unità monomeriche (tipicamente si usano per
esempio dei gruppi acrilici e si sfrutta la funzionalità COOH).
3. Se si lava questo sistema con un acido per esempio acido acetico o con un alcol, si
rompono queste interazioni (legami idrogeno) e si porta fuori la molecola stampo. Una
volta rimosso, questo, si lascia all'interno del polimero delle cavità, la molecola sarebbero
in grado di riconoscere se incontrata successivamente e di legarla selettivamente, potrei
avere idealmente un substrato poroso che si è messo a contatto con la matrice
17
Lachello/Palladino
22 Bionanotecnologie (Ciardelli)
22/04/2022
extracellulare (es. se è improntato per la fibronectina quando la mettete in vivo questo si
arricchisce spontaneamente di fibronectina, la assorbe in una maniera molto efficace).
L’accorgimento da stare attenti è quello che quando si impronta delle molecole grandi, come le
proteine, c’è il rischio che in questo processo la proteina si denaturi e il rischio è fare l'impronta
della proteina denaturata invece della proteina nativa. Se si impronta una sequenza più piccola,
che può essere anche una porzione di proteina, allora in quel caso i rischi sono minori, (come
l’RGD che non si denatura perché è molto corta).
Alla fine, si ha un sistema polimerico fortemente reticolato che deve essere un sistema rigido in cui
all'interno ci sono delle cavità che sono in grado di riconoscere, sia dal punto di vista geometrico
ma anche dal punto di vista chimico, delle specifiche molecole che sono state usate nella
fabbricazione di questi oggetti.
MODIFICA SUPERFICIALE: ADSORBIMENTO
Oltre alla modifica chimica di superfici, i processi di modifica fisica sono ampiamente utilizzati
grazie alla loro maggiore sicurezza, biocompatibilità e ai ridotti costi di processo.
L’adsorbimento è la più semplice tecnica di modifica superficiale fisica che prevede l’immersione
del substrato che si vuole funzionalizzare in una soluzione contenente la biomolecola da adsorbire.
Sebbene le interazioni che governano il processo siano prevalentemente di natura elettrostatica,
nell’adsorbimento entrano in gioco anche forze idrofobiche, di Van der Waals e legami idrogeno,
scopo e poi indurre una specifica reazione cellulare.
Tuttavia, l’efficienza di questa tecnica può essere limitata da due fattori: scarsa stabilità del
coating e impossibilità di controllare l’orientamento delle molecole adesive adsorbite.
Confronto tra efficienza di modifica superficiale tramite adsorbimento e immobilizzazione chimica
di lamina su una membrana nanofibrosa. Entrambi i processi di modifica favoriscono il
differenziamento di cellule simil-neuroni PC12 su substrati che presentano la laminina adsorbita
(SNF/L) e legata covalentemente (SNF-AP-S-L) fino a 18 giorni di coltura. Tuttavia, le cellule
coltivate sul substrato con laminina aggraffata covalentemente mostrano una maggiore crescita
neuritica e un superiore supporto nel differenziamento neuronale (C4-C6) rispetto a quelle
coltivate sul substrato con modifica fisica (C1-C3).
18
Lachello/Palladino
22 Bionanotecnologie (Ciardelli)
22/04/2022
Nei due esempi si hanno le nanofibre di silice elettrospinnate su una superficie, si fa il coding fisico
con laminina e la si fa assorbire in maniera fisica.
(1) Si crea un legame chimico cioè metto a APTS che è l’ammino propil tri tossi silano
creando dei gruppi amminici sulla superficie.
(2) Si modifica poi con un'altra additivo la Sulfo-SMCC che ha un doppio legame che reagisce
con un gruppo SH che è contenuta della laminina (3). Quello che si è fatto è creare un
legame covalente fra la proteina e la superficie.
Coltivo delle cellule ( neuroni) sui due substrati: quello fisioassorbito e quello in cui ho creato ul
legame chimico. del giorno 6 (C1) , giorno 12 (C2), giorno 18 (C3), si osserva che nel caso della
funzionalizzazione chimica si ha una maggiore crescita dei neuriti che sono i filamenti che
producono le cellule nervose e che sono un segnale che stanno maturando che stanno diventando
veri e propri neuroni (prima erano dei simil neuroni) e nonstante il differenziamento sia favorito
dalla presenza della laminina questo differenziamento è molto più efficace soprattutto a tempi
lunghi nel caso del legame chimico.
MODIFICA SUPERFICIALE: SELF ASSEMBLER MONOLAYER (SAM)
Il Self Assembled Monolayer (SAM) è una tecnica di modifica superficiale fisica che prevede
l’immersione del substrato che si vuole funzionalizzare in una soluzione contenente molecole
anfifiliche capaci di interagire con il substrato per formare spontaneamente un rivestimento
altamente ordinato.
Uno specifico substrato, può essere oro, allumina o silice e lo si immerge in una soluzione di
molecole che sono costituite da una testa che interagisce col substrato, una coda idrofobica ed un
gruppo R terminale che può essere un gruppo funzionale reattivo su cui puoi fare delle reazioni
chimiche o può essere già una biomolecola. E’ un raggruppamento spontaneo che sfrutta
19
Lachello/Palladino
22 Bionanotecnologie (Ciardelli)
22/04/2022
l'interazione fra la testa delle molecole anfifiliche che poi si dispongono ordinatamente grazie alle
interazioni idrofobiche che ci sono tra queste catene.
Per esempio con l’oro posso avere dei gruppi SH, si forma un legame covalente quindi non è
proprio un fisio assorbimento, ma un chemi assorbimento, alla fine si è ottenuto un legame fra il
mio substrato e la biomolecola oppure il gruppo funzionale .
Esempio: Ingegnerizzazione di un substrato capace
di controllare la risposta cellulare in funzione
dell’applicazione di un potenziale.
Il substrato d’oro è stato funzionalizzato mediante
tecnica SAM per esporre la sequenza peptidica
adesiva RGD e gruppi carichi negativamente, gruppi
solfato SO3-. Applicando un potenziale il
rivestimento SAM subisce delle variazioni
conformazionali che generano forze attrattive o
repulsive. In particolare, in presenza di un
potenziale negativo il substrato diventa resistente all’adesione cellulare; al contrario, in presenza
di un potenziale positivo promuove l’adesione mediante l’esposizione del terminale RGD quindi se
io metto su questo substrato le cellule queste si stendono ben bene aderiscono perché si vanno a
cercare con le loro integrine i gruppi RGD, invece sulla superficie di prima si ha una situazione
intermedia in cui la cellula sarà un po meno adesa questo può essere anche corretto se si vuole
una proliferazione, meno se si vuole differenziamento. In questo modo è possibile controllare non
solo l’adesione delle cellule, ma anche la loro morfologia e, in ultimo, il loro comportamento e
destino.
MODIFICA SUPERFICIALE: LAYER BY LAYER
Il Layer-by-Layer (LbL) è una tecnica di modifica superficiale fisica che prevede la "costruzione"
controllata di un rivestimento con spessore variabile tra pochi nm fino a diversi µm.
La tecnica LbL consiste nell’immersione del substrato carico elettrostaticamente in soluzioni di
polianioni e policationi al fine favorire la formazione di interazioni elettrostatiche e, quindi, la
formazione del coating. Oltre alle interazioni elettrostatiche, giocano un ruolo anche le interazioni
idrofobiche, legami covalenti e legami idrogeno.
Si immagina di avere un substrato positivo, lo si immerge nel
polianione, il quale riveste la superficie, sciacquo per
rimuovere ciò che non si è assorbito, e a questo punto si
mette il policatione. Si forma una deposizione layer by layer
cioè strato dopo strato di elettroliti diversi, e a seconda di
quanti se ne mettono si può regolare assumendo che si abbia
uno strato monomolecolare si può regolare anche lo
spessore.
20
Lachello/Palladino
22 Bionanotecnologie (Ciardelli)
22/04/2022
L'esempio pratico di questo lavoro funzionalizza le superfici con eparina e collagene alternati.
L'eparina è carica negativamente, il collagene può essere carico positivamente purché si lavori al di
sotto del pH inferiore al punto isoelettrico, quando rivestite quello che si fa è per esempio
misurare l'angolo di contatto, a un certo punto arrivate dopo un po’ di strati in genere 5, si arriva
ad una situazione di oscillazione dell'angolo di contatto perché ogni volta si ha sulla superficie uno
dei due polielettroliti, quindi una volta misura l'angolo di contatto dell'eparina e una volta quello
del collagene. Se ci si coltiva su tale superficie delgli osteoblasti si nota che sul multilayer vi sono
delle cellule molto più spread, lo si vede dalla numerosità di nuclei, maggiori che nei casi di
monofunzionalizzazione. LbL può realizzare dei rivestimenti e biologicamente attivi e biomimetici.
Le varie tecniche possono essere anche combinate
21
Lachello/Palladino
22 Bionanotecnologie (Ciardelli)
22/04/2022
1. un amminolisi avere dei gruppi amminici e dopo legare con la chimica del carbodiammidi una
proteina di tipo biologico.
2. plasma si può generare i gruppi carbossilici, poi attivarlo con le carbodiammidi e legarci dei
peptidi.
3. Sam in cui il gruppo terminale è una biotina, al SAM si può attaccare un qualsiasi substrato
biotinilato purché si abbia come intermezzo della streptavidina, perché avendo quattro la
strepdavidina può legarsi allo stato di sotto del Sam che ha i gruppi terminali biotinilati e poi
legare la biomolecola biotinilata dalla parte di sopra in questo modo si risolve il discorso delle
densità.
Applicazioni
https://www.youtube.com/watch?v=75ntMVPtP3Y
https://www.youtube.com/watch?v=Lto3v22l4MA
https://www.nanolive.ch/pcl-fibers-cell-nanomaterial
https://www.cambridge.org/core/journals/mrs-communications/mrs-communicationsbiomaterials-for-3d-cell-biology
https://tissueeng.net/research/biomaterials/
https://varghese.pratt.duke.edu/research/smart-bioimaterials
https://www.youtube.com/watch?v=uta5Vo86XL4
DOMANDA
In che modo l'impronta molecolare può avere un risvolto nell'applicazione pratica dal momento
che il substrato (giallo) sembra quasi inerte alla presenza della molecola stampo? Oppure si può
funzionalizzare la superficie al fine di avere una particolare reazione quando viene captata una
molecola simile al Template?
Non è inerte perché conserva queste cavità che hanno la stessa geometria della molecola
stampo e danno questi gruppi funzionali che sono in grado di rilegarla, si può immaginare che
la molecola stampa sia fibronectina, si ha superficie impronta molecolare quando la si mette a
contatto con un fluido biologico o la si usa come scaffold, questa se ha un'impronta per la
fibronectina, quando viene a contatto con un ambiente fisiologico, essa si lega selettivamente
a quella superficie e a quel punto si ha una in cui si utilla la fibronectina già presente in vivo.
Attenzione questi oggetti sono fatti non per rilegare molecole simili ma proprio per discernere
tra molecole simili e molecole uguali, cioè se fatto correttamente lega solo la molecola
template, distingue una molecola anche molto simile, primi esperimenti storici sono di
differenziamento tra fillina e caffeina che di molecole abbastanza grossi e differiscono per un
metile.
22
Masotti/Romano
23 Bionanotecnologie
27/04/2022
Precisazioni esercitazione precedente:
Quello che si doveva fare era valutare la variazione di peso percentuale e di pH. Per ogni poliuretano
erano disponibili 3 campioni diversi, di cui calcolare la differenza in peso per ogni campione, poi
farne media e deviazione standard per ogni poliuretano. Non erano state date indicazioni su come
fare i grafici, un’opzione poteva essere di fare un grafico per la degradazione idrolitica e uno per la
degradazione enzimatica tramite istogramma.
I grafici per media e deviazione standard devono essere messi insieme (unico grafico) perché sono
informazioni che vanno fornite insieme per avere un’idea generale dei dati importati. La stessa cosa viene
fatta cosa per il pH: per ogni poliuretano è stato riportato il valore medio dei pH nel tempo.
OSSERVAZIONE: Per il poliuretano M3 la degradazione enzimatica a 21 giorni non era stata misurato, quindi
il valore corrispondente a 21 giorni non deve essere inserito (ERRORE INSERIRE ZERO COME VALORE).
Tecniche di micro e nanofabbricazione:
Saranno trattate le seguenti classi di tecniche:
•
•
•
•
Tecniche litografiche;
Tecniche di prossimità;
Tecniche bottom-up;
Elettrospinning e elettrospray.
Ci sono due approcci principali nelle tecniche di biofabbricazione: top-down e bottom-up. Nel primo
approccio si parte da un materiale bulk e si ottengono le micro e nanostrutture “scolpendo” il
materiale. Per fare un esempio alla macroscala, un processo di lavorazione assimilabile al top-down
è la fresatura. Nell’approccio bottom-up, invece, si parte da blocchi che vengono assemblati per
ottenere il pezzo desiderato (si pensi ai mattoni che vengono assemblati per costruire una casa).
Un esempio di approccio top-down è dato dalle tecniche litografiche, mentre come esempi di
bottom-up si hanno la compattazione di nanopolveri, deposizione chimica o fisica di materiali
nanostrutturati (ad esempio la modifica superficiale dei materiali) o l’assemblaggio di elementi
nanometrici tramite manipolazione atomica.
Masotti/Romano
23 Bionanotecnologie
27/04/2022
Tecnologie top-down: tecniche litografiche:
Queste tecniche prevedono il disegno di un pattern specifico su di un substrato. Le tecniche
litografiche hanno una metodologia comune, tra tecniche diverse cambiano dei parametri in base
ai quali vengono classificate in:
•
•
•
•
•
Litografia tradizionale – fotolitografia (UV);
Litografia a raggi x;
Litografia soft;
Focused ion beam (FIB);
Bulk micromachining.
Per definire le performance delle tecniche litografiche si guardano 3 aspetti:
•
•
•
Risoluzione: la minima caratteristica che può essere trasportata/disegnata sul
substrato con precisione;
Registrazione: le tecniche litografiche si prestano anche per disegni e pattern
complicati, quindi è necessario registrare accuratamente i pattern per poterli
replicare fedelmente:
Volume di produzione: è il numero di dispositivi che possono essere realizzati
ogni ora. Si può prendere come riferimento o il numero di pezzi o l’area che può
essere disegnata per ora.
Sull’asse delle x del grafico in figura vediamo il
volume di produzione, in micrometri quadri orari,
mentre sull’asse delle y la risoluzione in nm.
Tendenzialmente si ha una proporzione tra queste
due caratteristiche: per avere volumi di produzione
maggiori bisogna avere una risoluzione inferiore e
viceversa. La caratteristica più importante viene
valutata caso per caso, è necessario trovare un buon
compromesso in base a quanti pezzi devono essere
creati, la loro funzione eccetera.
Le tecniche litografiche sono definite come quelle tecniche che permettono di trasferire un disegno
preciso (in questo caso micro o nanometrico) su un substrato polimerico che prende il nome di
resist; il disegno viene trasferito al resist tramite l’utilizzo di una maschera. Nel corso verrà posta
particolare attenzione ai vari processi, cioè ai metodi di produzione e ai parametri da considerare.
Inizialmente queste tecniche sono nate per la produzione dei circuiti integrati e sono state poi
trasportate anche alla produzione dei dispositivi biomedicali.
Masotti/Romano
23 Bionanotecnologie
27/04/2022
Gli elementi chiave del processo litografico
sono:
•
•
•
•
Substrato: solitamente in silicio;
Resist: il substrato su cui si vuole
andare a disegnare il pattern;
Maschera: riporta la geometria che si
vuole ottenere. Essa è costituita da
un pattern con aree assorbenti verso
la radiazione utilizzata, proteggendo
quindi il resist in determinate aree, e
altre aree invece che lasciano
passare le radiazioni. La radiazione
quindi colpisce il resist in funzione
della morfologia della maschera.
Radiazioni: determinano il tipo di litografia, la più classica utilizza le radiazioni UV
(“fotolitografia”). Vanno ad alterare il substrato tramite processi fisici o chimici.
Esistono due tipi di resist: positivi e negativi. Nel caso di resist positivo essi aumentano la loro
solubilità dopo l’irraggiamento (“il resist rammollisce”), mentre i resist negativi vengono induriti
dalla radiazione (polimerizzazione del resist nelle zone irraggiate). Il resist è un polimero
fotosensibile (sensibile alla radiazione) solubilizzato in un solvente. In alcuni casi viene aggiunta una
molecola sensibilizzante, cioè un fotoiniziatore che serve ad aumentare la sensibilità del resist alla
radiazione.
Schema generale della litografia:
Nella slide sono illustrati i punti
principali del processo: si ha il wafer
di silicio (substrato) su cui viene
solitamente applicato prima uno
strato di ossido, applicando poi il
resist (polimero sensibile alle
radiazioni). Lo spessore del resist può
variare sia in base alla tecnica che si
utilizza per depositarlo, sia in
funzione deIla realizzazione finale
desiderata (si va da qualche um a
qualche 100aia di um in tecniche
particolari). Il substrato va poi
incontro al soft-baking, un processo
termico “soft” che serve ad eliminare il solvente residuo del resist. Una volta deposistato il resist si
applica la maschera e, successivamente, la radiazione (UV). In questo caso il resist è positivo, viene
cioè “sciolto” dalla radiazione e rammollisce. Le parti irraggiate vengono poi rimosse e il resist è il
positivo della maschera, cioè ha la stessa forma delle parti assorbenti. Il wafer va poi incontro ad
Masotti/Romano
23 Bionanotecnologie
27/04/2022
ulteriore puliza e trattamento termico (hard-baking), che serve ad eliminare il solvente assorbito
dalla parte “forte” del resist e per migliorare l’adesione del resist sul substrato. A questo punto si
possono fare ulteriori modifiche, come aggiungere (ad esempio aggiungere un materiale metallico)
o rimuovere materiale. Tutte le lavorazioni fatte da questo punto del processo in poi sono efficaci
solo sulle zone del substrato non protette dal resist.
Vediamo ora in dettaglio cosa implicano tutti i passaggi.
Pulizia del wafer:
Le varie litografie vengono effettuate in camere bianche (o camere pulite). Sono stanze con
atmosfera controllata, in particolare: temperatura, pressione, umidità, vibrazioni e illuminazione
controllata. Si considera anche la quantità di polveri presenti all’interno, parametro che definisce
anche la classe delle camere bianche. Perche bisogna pulire i wafer? Per togliere i residui di solventi,
macchie, residui organici e polveri (polveri “normali” o di metalli). È un passaggio fondamentale
perchè le impurezze riducono l’adesione tra resist e substrato, producono inclusioni nello strato di
ossido e quindi possono introdurre difetti di forma e ridurre la qualità del prodotto finale.
La pulizia può essere di due tipi: dry cleaning o wet cleaning (prevede l’utilizzo di liquidi). Per quanto
tiguarda il wet cleaning, i liquidi possono essere più o meno aggressive, solitamente sono tossiche.
Nel dry cleaning invece rientrano i processi che utilizzano gas, plasmi (ossigeno o argon) o
trattamenti termici o meccanici. I processi di wet cleaning sono i più utilizzati, ma hanno alcuni
problemi: in primis la tossicità delle soluzioni e del loro smaltimento. La tabella riassume alcune
caratteristiche delle due tipologie.
Il wet cleaning è facilmente scalabile a livello industriale, facilmente ripetibile. I processi dry sono
invece meno scalabili a livello industriale, le dimensioni devono restare all’interno di un certo range
perché il plasma sia efficace, ma sono più green in quanto non utilizzano solventi tossici. Sono
migliori sulla piccola scala, come la realizzazione di pochi pezzi.
Alcuni esempi di soluzioni commerciali per le pulizie:
Masotti/Romano
23 Bionanotecnologie
27/04/2022
RCA 1: è composta da ammoniaca al 25% e acqua in rapporto 1:5. Si fa scaldare fino ad ebollizione
e si aggiunge una parte di perossido di idrogeno (acqua ossigenata) e si immerge il wafer per 10
minuti. Questo processo è utilizzato per la rimozione delle tracce organiche.
RCA 2: acido cloridrico e acqua in rapporto 1:6. Anche in questo caso si porta ad ebollizione e si
aggiunge perossido di idrogeno, per poi immergere il wafer per 10 minuti. È utilizzata per rimuovere
ioni metallici.
Entrambe le soluzioni lasciano sul wafer un sottile strato di ossido, quindi non bisogna fare un
trattamento aggiuntivo per ottenere lo strato di ossidi di cui si è parlato prima. Nel caso in cui,
invece, lo strato di ossido non fosse presente, prima del prossimo step bisogna andare a formarlo
con un trattamento termico in flusso di ossigeno con temperature elevate.
Deposizione del resist:
I resist sono sostanze sensibili alla radiazione utilizzata, disciolti in opportuni solventi. Possiamo
avere i resist negativi o positivi. Quando si sviluppa un resist negativo si indurisce e viene mantenuta
la parte irraggiata dalla radiazione. Si avrà quindi il negativo rispetto alle parti scure (assorbenti)
della maschera.
I resist positivi, invece, sono stabili fino a che non vengono irraggiati dalla radiazione che rompe i
legami tra catene del polimero e lo rammolisce. La parte irraggiata verrà poi rimossa in fase di
sviluppo.
Tutti i resist sono comunque soluzioni polimeriche e devono essere depositate sul substrato sotto
forma di film. Il film deve essere uniforme e chimicamente isotropo. Esistono numerose tecniche
per la deposizione di questi film: quelle che saranno viste ora sono adatte a qualunque resina per
qualunque litografia, o in generale quando si parla di deporre un film sottile su di un substrato.
SPIN COATING:
Questa tecnica utilizza uno strumento chiamato spin coater, che prevede un supporto su cui viene
il substrato da rivestire: per ancorare il wafer al supporto si utilizza il vuoto. Si inserisce sul wafer un
determinato volume di resist, poi si mette in rotazione il supporto a determinate velocità: prima a
500 rpm, per spargere il resist su tutto il wafer, poi la velocità di rotazione aumento fino a 15001600 rpm per un tempo variabile (da qualche secondo a qualche minuto). Questa rotazione più
veloce permette di avere un film sottile aderente al wafer. Si fa poi evaporare il solvente. I parametri
che determinano lo spessore del
film sono indicati in figura.
NOTA: nella soluzione ci possono
essere diverse sostanze, quindi
non si parla di concentrazione
ma di percentuale di materiale
solido.
Con questa si ottengono film anche molto sottili, con spessore circa di 1-2 micron. Altri parametri
che influenzano lo spessore del resist sono la quantità di resist che viene depositato, il tipo di
Masotti/Romano
23 Bionanotecnologie
27/04/2022
solvente (si comportano in modo diverso anche a parità di polimero) e il tempo di rotazione. Se il
volume iniziale che viene deposto è troppo grande si accentua uno dei difetti di questa tecnica, i
difetti di bordo: la distribuzione del resist non è omogenea, ma guardando in sezione si vede un
profilo più alto vicino ai bordi causato dall’accumulo di materiale. Per risolvere questo problema
sono poi necessarie lavorazione successive. Se invece il materiale deposto è troppo poco ci saranno
delle zone non rivestite. Questa tecnica è molto utilizzata nei laboratori di ricerca, anche piccoli,
perché semplice e veloce, ma ha anche un altro problema: si spreca molto materiale, che costa e va
poi smaltito. i materiali tossici hanno anche specifiche condizioni di stoccaggio, cosa che può
risultare problematica soprattutto in scala industriale.
SPRAY COATING:
Il substrato viene messo sotto un getto spray; il resist viene spruzzato da un ugello, che crea
particelle di resist di dimensioni micrometriche: il resist viene portato ad un ugello ad ultrasuoni
che permette di produrre delle droplet (particelle) di resist che vengono deposte sul substrato
tramite pressione. Per evitare l’effetto di overspray (zone con più particelle rispetto ad altre) il getto
deve essere posizionato ad una distanza di 5 cm. Rispetto allo spin coating permette di otteneer
rivestimenti più omogenei, anche grazie alla possibilità di movimento relativo tra wafer e ugello.
Non si hanno effetti di bordo (praticamente non viene sprecato materiale) e si hanno meno stress
residui, che possono portare a difetti nei passaggi successivi. I rivestimenti però hanno dimensione
intorno ai 20 micron (molto più spessi rispetto allo spin coating). Esiste anche una variante chiamata
electro spray coating, che funziona nello stesso modo ma prevede l’applicazione di una tensione tra
substrato e ugello che dà origine a particelle più piccole con meno propensione ad aggregarsi perché
sono cariche e si respingono: si ottengono rivestimenti con meno difetti e più uniformi. Con lo spray
coating si possono rivestire wafer non piani e anche entrambi gli strati del wafer, cose non possibili
con lo spin coating.
Masotti/Romano
23 Bionanotecnologie
27/04/2022
MENISCUS COATING:
Questa tecnica sfrutta la formazione di un menisco che si verifica quando l’adesione del liquido al
substrato è maggiore rispetto alla forza di coesione del liquido stesso. Si ha un reservoir del
fotoresist, che tramite una
pompa viene fatto passare
attraverso una penna dove è
presente
un
applicatore
tubolare poroso, con pori del
diametro di dieci micrometri.
All’interno del canale centrale è
mantenuto un flusso laminare.
Il dispenser viene messo vicino
al substrato fino a che si forma
il menisco tra il substrato e il
liquido che esce dal dispenser.
Si imposta una determinata
velocità e si deposita il resist sul
substrato.
Vantaggi:
questi
sistemi
solitamente prevedono un sistema di ricircolo del resist, che quindi rende la tecnica più “green”. Si
possono rivestire grandi aree, a differenza dei due sistemi precedenti, e non si presentano difetti di
bordo.
I parametri di processo che vanno ad influenzare l’uniformità e lo spessore del coating sono:
•
•
•
•
La distanza tra substrato e la testa del tubo;
La velocità del tubo;
La concetrazione della soluzione;
La velocità di evaporazione del solvente.
Svantaggi: è possibile che l’adesione tra resist e substrato non sia buona.
ELECTRODEPOSITION:
Questa tecnica permette di rivestire totalmente il wafer e si possono utilizzare wafer di forme
complesse, perché il substrato viene immerso in
una soluzione che contiene particelle cariche di
fotoresist e, se necessario, di fotoiniziatore. Le
micelle hanno dimensione tra i 50 e 20
nanometri e vengono mantenute in sospensione
tramite repulsione elettrostatica. Viene applicata
una tensione e le particelle si muovono verso il
substrato di carica opposta. Il punto cruciale di
questo processo è che il substrato sia carico:
quando le particelle gli si avvicinano si ha una
destabilizzazione a contatto del substrato (di
Masotti/Romano
23 Bionanotecnologie
27/04/2022
carica opposta), si fondono tra loro e rivestono il substrato. Questo processo, però, è
autolimitante:infatti più particelle si legano al substrato, più tenderanno ad annullarne la carica. Si
possono ottenere rivestimenti di spessore tra i 5 e i 10 micrometri.
La tensione applicata e la temperatura del processo determinano lo spessore del resist.
Costabile/Cascone
24 BIONANOTECNOLOGIE (Carmagnola)
28/04/2022
Litografia Tradizionale
Riassunto lezione precedente
Nella lezione precedente sono state introdotte le tecniche litografiche.
Ci sono alcuni step che sono comuni alle varie tecniche litografiche, quello che cambia riguarda le
radiazioni che si utilizzano per irraggiare il resist e di conseguenza anche il tipo di resist.
Si parte da un substrato di silicio che viene pulito, si depone il resist, si fa un trattamento termico
per stabilizzare il rivestimento appena fatto e a questo punto, utilizzando la maschera (ovvero il
sistema che permette di andare a irraggiare selettivamente alcune zone del resist rispetto ad
altre), si irraggia il resist. Visto che esistono poi diversi tipi di resist, in questo caso l'irraggiamento
causa un indebolimento del resist che, nella fase successiva di sviluppo, verrà poi rimosso e quello
che rimane sarà solo il resist che non è stato irraggiato. A questo punto il substrato è protetto dal
resist secondo una determinata geometria dettata dalla geometria della maschera.
A questo punto si ha il substrato che è pronto per essere processato: i metodi di processo possono
essere o di asportazione di materiale o di aggiunta di materiale.
Queste sono le varie fasi della litografia. Si sono iniziati a vedere poi anche i vari passaggi: la
pulizia, come avviene, come si lavora in camera pulita e anche varie tecniche per andare a
depositare il resist sul substrato.
Queste tecniche sono tutte utilizzate non solo in litografia ma tutte le volte che è necessario
andare a depositare un sottile strato polimerico su un substrato. Esse differiscono in funzione
dello spessore del resist che si vuole ottenere e dal tipo di substrato. Ce ne sono alcune più
semplici, altre più complesse, alcune scalabili industrialmente e altre no.
Dip Coating
La tecnica del Deep Coating è una tecnica
semplicissima in quanto prevede di immergere il
substrato nella soluzione del resist.
Il substrato viene aggraffato attraverso un
sistema di afferraggi e viene movimentato lungo
l'asse Z per essere immerso e poi tolto dalla soluzione con una velocità costante.
I parametri che influenzano la deposizione del resist con questa tecnica sono la viscosità e la
concentrazione della soluzione (detti parametri di soluzione del resist), mentre dal punto di vista
del processo vero e proprio sono la velocità con cui il resist viene immerso e prelevato dalla
soluzione (parametri di processo). Con questa tecnica si aggiungono degli spessori di 8-10 μm.
I vantaggi riguardano il fatto che si possono rivestire substrati di ogni forma e dimensione. Questo
avviene tutte le volte in cui i rivestimenti avvengono per immersione perché il substrato viene
completamente immerso. Inoltre, si ottiene il rivestimento da entrambe le facce del substrato con
una sola fase di processo.
Gli svantaggi sono dovuti al fatto che è un processo poco controllabile; si possono ottenere cotti
non uniformi sulla superficie e con spessori non facilmente controllabili.
Essendo una soluzione per immersione, si hanno poi tutti i problemi di scarto di materiale e quindi
smaltimento del materiale. Anche in questo caso, si ha abbastanza perdita di materiale perché poi
l'immersione si potrà fare fino a un certo punto fino a che poi la soluzione inizierà a sporcarsi e
dovrà essere comunque cambiata. Di contro, però, è una delle tecniche più semplici in assoluto
che si possono fare in qualunque posto.
1
Costabile/Cascone
24 BIONANOTECNOLOGIE (Carmagnola)
28/04/2022
Roller Coating
È una delle tecniche maggiormente
implementate a livello industriale
perché è implementabile in sistemi
di automazione. Questa tecnica
consente di rivestire i substrati
molto sottili. Il rivestimento può
avvenire su un solo lato o su entrambi i lati del substrato. Utilizza una serie di roller di gomma.
Si ha il roller di supporto, che è quello che permette di far muovere il substrato, poi si ha il doctor
roller e l'application roller. La soluzione viene fornita tra l'application roller e il doctor roller e
dall'application roller, attraverso la pressione sul substrato, viene depositata sul substrato.
Permette di ottenere spessori minimi di 5 μm ed è implementabile a livello e industriale.
I parametri che influenzano le caratteristiche del film di polimero depositato sono la pressione tra
il doctor roller e l'application roller, la pressione tra il supporto e l'application roller e i parametri
della soluzione (cioè la concentrazione della soluzione del resist che si utilizza).
Quindi in questo caso si ha una tecnica particolarmente indicata quando si ha come substrato da
rivestire dei film sottili.
Curtain Coating
Questa tecnica viene anche detta
Coating a tenda.
In questo caso, si ha il reservoir del
resist che viene fatto passare,
attraverso l'applicazione di una
determinata pressione, su una
fessura→ quello che si ottiene è una deposizione a tenda del polimero (tipo cascata). Il substrato
viene messo in movimento e fatto passare attraverso il materiale del resist.
Questa tecnica permette di rivestire solo un lato del substrato. La distanza tra il substrato e il
reservoir del resist è abbastanza alta; quindi, nel processo si ha l'evaporazione di una elevata
quantità di solvente che deve essere in qualche modo settata in modo corretto, al fine di avere
una deposizione omogenea del rivestimento→ se evapora troppo velocemente e quindi quello
che arriva sul substrato ha troppo poco solvente, si avranno dei rivestimenti poco omogenei e
poco adesi al substrato. Permette di ottenere spessori di circa 25-60 μm.
I parametri da tenere in considerazione per avere un buon rivestimento sono la viscosità della
soluzione, la velocità del substrato e la velocità della pompa che permette la fuoriuscita del resist.
Extrusion Coating
L'ultima tecnica, la tecnica
dell'estrusione, è la tecnica forse più
intuitiva se si pensa di voler inserire
un polimero su substrato.
Si ha il resist che viene passato nella
testa di estrusione che termina con
un ugello di diverse dimensioni, con
un diametro che può variare. Viene posizionato molto vicino al substrato che viene messo in
movimento.
2
Costabile/Cascone
24 BIONANOTECNOLOGIE (Carmagnola)
28/04/2022
Il resist fuoriesce dalla testa di deposizione attraverso sistemi di estrusione pneumatici o
meccanici e quindi attraverso un sistema di viti. Ci sono sistemi più o meno precisi.
Anche questo sistema è integrabile in sistemi di produzione in serie e automatizzati.
Permette di rivestire substrati di grandi dimensioni e permette di ottenere spessori in un range
molto ampio→ si ottengono film molto sottili, da 1 μm fino a 100-150 μm.
L’unico svantaggio è che può presentare dei difetti laterali e cioè, se si va sul profilo di
deposizione, si hanno i vari profili di deposizione uno accanto all'altro e quindi si potrebbero avere
dei difetti di questo genere. Quindi il coating potrebbe essere non omogeneamente distribuito
sulla superficie.
Anche in questo caso viene utilizzato per depositare su un solo lato.
Di tutti queste tecniche litografiche si è vista una panoramica e quello che bisogna ricordare
riguarda le caratteristiche principali: ad esempio, il tipo di substrato che si può rivestire, se si può
implementare a livello industriale o se sono magari più tipicamente utilizzate per rivestire piccole
quantità di materiale a livello di laboratorio, prototipi e ricerca, se permettono di rivestire un solo
strato o meno, ecc.
Dopo aver visto le varie tecniche, adesso si passa ai passaggi successivi.
Soft Baking
Dopo la deposizione del resist, il passaggio successivo è quello di trattarlo termicamente per
stabilizzarlo. Il trattamento che si effettua al resist dopo la deposizione è chiamato Soft Baking ed
è un trattamento termico abbastanza leggero.
Si fa questo trattamento termico principalmente per tre motivi:
→sicuramente per eliminare il solvente lesivo. Dopo la deposizione del resist, che è una
soluzione polimerica (polimero disciolto in un solvente), la maggior parte del solvente
evapora e rimane intrappolato circa un 15% di solvente. Questo trattamento serve per
eliminare tutto il solvente: ci si deve aspettare anche una riduzione dello spessore, dopo il
trattamento di soft baking, di circa il 10-15%;
→serve per eliminare eventuali tensioni residue date al resist durante la fase di processo.
Ci sono alcuni processi che forniscono le tensioni residue maggiori rispetto ad altre. In
questo modo, con questo trattamento si annullano queste tensioni;
→serve inoltre per aumentare l'adesione tra substrato e resit. Alcune delle tecniche che si
sono viste, tra cui quella del menisco e quella del Dip coating, in realtà hanno come
svantaggio quello di non garantire una perfetta adesione del film polimerico al substrato.
Con il soft baking si riesce anche in questo caso a migliorare l'adesione tra resist e
substrato.
Per effettuare il soft baking si può fare un trattamento termico a una temperatura compresa tra i
90° e i 100° per 20 minuti, oppure in forno, oppure a 75-85 ° per 1-3 minuti sottovuoto su piastra
scaldata. Questi sono degli esempi di trattamento di soft baking, ma ce ne possono essere anche
altri che saranno in funzione del tipo di resist che si è andato a depositare e dello spessore che il
resist ha rispetto al substrato.
Bisogna fare attenzione a non fare un trattamento termico troppo aggressivo, perché, soprattutto
nel caso della litografia tradizionale (la fotolitografia che utilizza come radiazione i raggi UV), molto
spesso si ha, oltre al polimero di cui è formato il resist, un materiale fotosensibile che serve ad
innescare la reazione dei raggi UV con il materiale → se si fa un trattamento troppo elevato o
troppo aggressivo si rischia dunque di danneggiare in parte l'elemento fotosensibile e quindi di
3
Costabile/Cascone
24 BIONANOTECNOLOGIE (Carmagnola)
28/04/2022
ridurre la sensibilità che il resist ha verso la radiazione, quindi si perde in risoluzione e in qualità
del prodotto finale.
Quando si utilizza un forno a convezione (tipo il forno da cucina), in cui si imposta la temperatura e
si mette il campione e il materiale da trattare senza altre aggiunte, bisogna fare attenzione al fatto
che, se la temperatura è troppo alta, evapora il primo strato di solvente del resist che funge da
coperta impermeabile al solvente, che è presente negli strati più profondi. Quindi, non si riesce a
fare evaporare completamente tutto il solvente. Per evitare che si formi questa crosta di resist
che blocca la completa evaporazione del solvente, si può fare un trattamento a forno, però, a
temperature più basse e magari per tempi più lunghi, oppure si può usare il riscaldamento su una
piastra: in questo modo il calore arriva dal basso e si evita la produzione di questo strato di
polimero sulla superficie che evita l'evaporazione del solvente.
Altro metodo che si può utilizzare per evitare questo inconveniente è quello di utilizzare delle
stufe a vuoto: in questo caso il vuoto aiuta la volatilità del gas e quindi il solvente evapora prima
che si formi effettivamente questo strato.
Questi sono gli unici accorgimenti che bisogna tenere a mente quando si pensa al passaggio di soft
banking.
Esposizione
Una volta effettuato il trattamento termico sul resist, quest’ultimo è pronto per essere irraggiato.
Nella fotolitografia tradizionale la radiazione è la radiazione UV visibile. La radiazione avviene una
volta che tra la radiazione e il resist è stata
sovrapposta la maschera che, come già visto,
presenta delle parti trasparenti alla radiazione e
delle parti assorbenti. La radiazione andrà
dunque ad irraggiare il campione solo in
determinate zone. La maschera può essere messa
a contatto o in prossimità, quindi molto vicina al
resist, o può essere proiettata sul resist, la
maschera in questo caso è più lontana e viene
proiettata attraverso un sistema di lenti sul resist.
Si possono usare diverse radiazioni UV, come l’UV estremo che è a lunghezze d'onda più corte tra i
10 e i 70 nm, l’UV profondo tra i 150 e 300 nm e l’UV vicino tra i 350 e 500 nm.
Le lunghezze d'onda più corte hanno una luminosità inferiore, quindi, è spesso richiesto o un resist
più sensibile o un sistema di lenti che amplifichi il segnale.
Come si seleziona la lunghezza d’onda? La più piccola caratteristica che può essere impressa sul
resist è circa uguale alla lunghezza d'onda della radiazione utilizzata. La lunghezza d’onda, quindi,
determina la sensibilità→ più la lunghezza d’onda è piccola, più si riuscirà ad imprimere una
caratteristica più piccola sul resist e quindi si migliora la risoluzione del disegno. Quindi, in
funzione del tipo di pattern geometrico e delle dimensioni del pattern, si possono selezionare
diverse lunghezze d'onda.
Per irraggiare si può usare una luce semplice, come una lampada UV semplicissima, oppure si
possono utilizzare dei sistemi di lenti che vanno a convogliare la radiazione sul campione.
Parlando di radiazioni, si introduce anche il concetto di dose che è data dal prodotto dell’intensità
della luce incidente per il tempo di esposizione [Joule al centimetro quadrato].
Oltra alla risoluzione e al volume di produzione, una delle caratteristiche che si va a considerare
quando si parla di performance di un sistema di una litografia è la registrazione, ovvero come
accuratamente potevano essere posizionate le maschere sul campione. Questo perché, per
realizzare geometrie complesse e anche tridimensionali (sviluppate anche lungo l'asse Z), è
4
Costabile/Cascone
24 BIONANOTECNOLOGIE (Carmagnola)
28/04/2022
possibile effettuare più processi litografici uno di seguito all'altro utilizzando maschere con pattern
diversi. Le maschere devono essere allineate il più precisamente possibile sul resist, e quindi sul
substrato, al fine di ottenere una riproduzione il più fedele possibile del disegno del pattern finale.
Le maschere sono quegli stampi che servono
per trasferire il pattern sul wafer. Per fare il
pattern sul wafer, in realtà, imprimono per
prima cosa la radiazione sul resist.
Le maschere sono costituite da zone
trasparenti e zone assorbenti. Nel caso della
fotolitografia, quindi la litografia che utilizza i
raggi UV visibili, le zone trasparenti sono
normalmente o in silicio o in quarzo, mentre
le regioni assorbenti solitamente sono
costituite da un layer di cromo di qualche
centinaio di Armstrong (circa 800 Armstrong): la parte trasparente permette il passaggio della
radiazione che andrà a irraggiare la parte sottostante di resist, le parti assorbenti, invece,
impediscono la radiazione di raggiungere il resist.
Anche nel caso di maschere si può parlare di maschera negativa e maschera positiva.
→Nel caso di maschera negativa, o anche chiamata Clear field mask, il pattern è la regione della
maschera assorbente. Quindi la geometria che si vuole andare ad incidere è in realtà la parte nera,
che è la parte assorbente (quella costituita dal layer di cromo), mentre il resto della maschera è
trasparente.
→Nel caso di maschera positiva, invece, anche chiamata Dark field mask, il pattern che si vuole
andare a trasferire sul substrato è trasparente, quindi lascia passare la radiazione UV, mentre il
resto della maschera è assorbente.
Le maschere, a loro volta, vengono realizzate utilizzando le tecniche litografiche e in particolare
vengono realizzate utilizzando delle tecniche litografiche che permettono risoluzioni maggiori
rispetto alla fotolitografia che si sta vedendo. In particolare, si utilizza la litografia a fascio di
elettroni. Questo perché sicuramente la risoluzione della maschera influenza la risoluzione del
prodotto finale, tenendo logicamente conto dei limiti della tecnica litografica che si sta utilizzando,
e anche perché la maschera è pensata per essere usata ripetutamente.
Le maschere non vengono fatte una volta, usate e buttate, ma sono pensate per essere utilizzate
per imprimere n dispositivi, n substrati.
Quindi, anche se sono prodotte con processi con risoluzione maggiore e quindi sicuramente con
costi maggiori, si riesce a compensare questo fatto usandole ripetutamente.
Metodi di Esposizione
Esistono tre diversi tipi di metodi per utilizzare le
maschere, cioè tre diversi tipi di metodi di
esposizione.
La maschera può essere messa a contatto, ovvero
essere posizionata sul resist, può essere messa in
prossimità, e in questo caso si ha un piccolo gap tra il
resist e la maschera, oppure può essere utilizzata per
proiezione.
5
Costabile/Cascone
24 BIONANOTECNOLOGIE (Carmagnola)
28/04/2022
1. Maschera a contatto: si ha la sorgente luminosa e la maschera che viene posizionata
direttamente sul resist, la quale permette di avere risoluzioni molto alte.
Ha uno svantaggio: l'usura della maschera. Le maschere quando vengono utilizzate a
contatto durano meno e questo implica costi maggiori. Non solo si usura la maschera, ma
c'è il rischio di andare a causare anche dei difetti sul resist, che possono poi andare a
influenzare la qualità del prodotto finale.
2. Per ovviare ai problemi dell’esposizione a contatto, si può passare all’esposizione in
prossimità. C’è un piccolo gap: la maschera è messa ad una distanza molto piccola dal
resist; è molto vicina al resist e in questo caso si va a compensare il problema dell'usura
della maschera, ma si abbassa la risoluzione perché si hanno problemi di diffrazione della
luce tra la maschera e il resist.
Come si definisce la differenza tra contatto e resist? La maschera a contatto si ha quando il
gap tra maschera e il resist è inferiore alla lunghezza d'onda. Per avere l'esposizione in
prossimità, bisogna che il gap tra la maschera e il resist sia inferiore a
𝑾∙𝟐
𝝀
(con W che in
questo caso è considerata la dimensione geometrica del pattern da riportare e 𝝀 pari alla
lunghezza d’onda utilizzata) .
3. L'ultimo tipo di esposizione della maschera è quella per proiezione: si ha la sorgente e la
maschera che è messa più distante rispetto al resist e rispetto alla prossimità.
Per andare ad imprimere l'immagine della maschera sul resist, si utilizza un sistema
ottico→ in realtà la maschera è proiettata sul resist.
Anche questo sistema permette di ottenere alte risoluzioni.
Nel caso della maschera a contatto o della maschera in prossimità, il rapporto tra immagine della
maschera e immagine ottenuta nel resist è di 1:1. Quindi, se si vuole avere una riga di 100
nanometri, sulla maschera dovremmo avere la riga di 100 nm che otterremo anche sul resist.
Questo avviene nel caso si progettino e si pensino delle maschere che si devono utilizzare a
contatto o in prossimità.
Nel caso del metodo di esposizione per proiezione, si possono utilizzare maschere più grandi,
perché attraverso il sistema ottico si può proiettare l'immagine riducendo la dimensione. Quindi si
possono fare maschere con dimensione di rapporto 1:5 o 1:10. Di nuovo, se si vuole avere una
linea di 100 nanometri, si può avere una maschera che ha un filo di 500 nm oppure di 1000 nm.
Questo permette di risparmiare sulla produzione delle maschere perché comunque si fanno
maschere con dimensioni maggiori.
Maschere per litografia a scale di grigio
Se si utilizzano le maschere normali, l'informazione che si trasferisce è un'informazione binaria: la
zona trasparente (zona che viene irraggiata) può essere considerata con 1, mentre la zona
assorbente della maschera (cioè zona sul resist in cui non arriva l'irradiazione) può essere
associata allo 0.
È possibile, però, in realtà utilizzare delle maschere a toni di grigio che permettono un'esposizione
parziale del resist. Lo sviluppo rende solubile il resist in modo proporzionale alla quantità di dose
che ha assorbito → nello sviluppo, si andrà a sviluppare una parte del resist in proporzione alla
dose di radiazione che ha ottenuto.
Le maschere a scala di grigio sono costituite da alcune parti completamente trasparenti, 100%
trasparenti che fanno passare il 100% della radiazione, da delle zone che sono 100% assorbenti,
6
Costabile/Cascone
24 BIONANOTECNOLOGIE (Carmagnola)
28/04/2022
che quindi non fanno passare la radiazione, e da alcune zone che sono invece intermedie, che
fanno passare una determinata percentuale di radiazione.
Le zone di grigio vengono fatte andando
a deporre sulla maschera degli spot di
materiale assorbente che abbiano una
dimensione inferiore alla lunghezza
d'onda utilizzata. In questo modo, sono
talmente piccoli che non possono essere
riportati sul resist perché quest’ultimo ha
una lunghezza d'onda tale che non
permette di riportare quelle geometrie
sul resist, ma comunque assorbono una
parte della radiazione e quindi non fanno
passare il 100% o non bloccano il 100% della radiazione.
Quindi, ad esempio, nella scala di grigio che è riportata in figura, si ha la maschera che è costituita
da tre zone diverse: la zona bianca è la zona completamente trasparente alla radiazione; la zona a
pallini è la zona che permette di far passare una certa percentuale di radiazione (si ipotizzi un
50%); la parte a righe è invece la parte completamente assorbente e quindi non fa passare la
radiazione. Essa viene posta sul resist e si vede come il resist viene irraggiato.
La parte a righe è la parte che riceve la radiazione, la parte grigia è la parte che non riceve la
radiazione. Sotto la parte bianca il resist riceve tutta la radiazione, sotto la parte a righe della
maschera il resist è tutto grigio e quindi non riceve radiazioni, mentre sotto la parte centrale a
pois, che è quella a gradiente solo il 50%, solo la prima parte del resist riceve la radiazione mentre
la parte sotto no.
In fase di sviluppo, in caso di resist negativo, la radiazione fa polimerizzare e indurire il materiale e
lo rende meno solubile alla soluzione in sviluppo: viene rimossa la parte della maschera che non è
stata esposta, quindi la parte di grigio. Per il resist negativo: la radiazione indebolisce il resist, lo
rende più solubile alla soluzione di sviluppo e si elimina, con la fase di sviluppo, la parte a righe,
mentre rimane la parte grigia. Si ottiene un profilo più complesso rispetto a quelli che si sono visti
finora, che erano o tutto o niente.
Nell’immagine si vedono alcuni esempi di strutture che si possono ottenere con la fotolitografia
utilizzando maschere a toni di grigio. Sono particolarmente indicate queste maschere per fare dei
profili appuntiti.
Queste maschere sono molto complesse e per questo si utilizzano tecniche litografiche molto
accurate proprio perché, soprattutto nella parte di scala di grigio, bisogna ottenere dei punti
assorbenti molto piccoli. Per fare questo, bisogna far sì che il cambiamento delle proprietà fisiche
e chimiche del resist sia proporzionale alla quantità di radiazione che lo colpisce.
Un gruppo di ricerca ha in realtà realizzato un resist, che è quello di cui sono riportati gli esempi
nell’immagine, la cui reazione è dose dipendente. Il resist si chiama di Rohm e Haas, dal nome di
chi lo ha inventato, e può essere utilizzato sia per produrre ad esempio strutture utilizzando
maschere a scale di grigio, oppure per essere utilizzato sia come resist positivo che come resist
negativo (ovvero viene irraggiato normalmente, poi, in funzione dei trattamenti a cui viene
sottoposto e soprattutto all'ordine di trattamenti a cui viene sottoposto, si può comportare o
come resist positivo o come resist negativo). Quando solitamente si parla di resist positivo e
negativo è perchè sono resist diversi, ma in questo caso, questo resist, in funzione del processo di
lavorazione a cui è sottoposto, dopo l'irraggiamento si può comportare o come resist positivo o
come resiste negativo.
7
Costabile/Cascone
24 BIONANOTECNOLOGIE (Carmagnola)
28/04/2022
Risposta ad una domanda
La litografia a fascio di elettroni o a fascio ionico permette di deporre materiale e con risoluzioni
molto piccole. Se si hanno pallini di cromo, che è il materiale assorbente nel caso delle maschere
per fotolitografia, e la dimensione di questi spot è inferiore alla lunghezza d'onda, questi, essendo
inferiori alla risoluzione della tecnica, non vengono riportati sul resist. Il resist non li vede come
disegno, però assorbono una parte della radiazione. Quindi, quando la radiazione attraversa,
passerà ad esempio solo il 50% (nel caso i pallini ricoprano il 50% dell'area) e quindi la zona
sottostante riceverà una quantità di radiazione inferiore rispetto alla zona di maschera
completamente trasparente → una minor quantità e si va meno in profondità.
Questo è un esempio schematico, un modello, che ha tre parti molto ben definite: 100%, 50% il
centrale e 0% di radiazione trasmessa. Si può avere anche un gradiente più graduale, durante la
maschera, che permette di ottenere questi profili complessi riportati in figura, ma il concetto è lo
stesso. È una tecnica molto interessante che permette di ottenere geometrie molto complesse;
tuttavia, lo svantaggio è che effettivamente le maschere a scala di grigio, proprio per come sono
fatte, sono molto costose.
Tipo di Resist
I tipi di resist che si possono trovare sono: il resist positivo o il
resist negativo. In generale, la radiazione comporta nel resist un
cambiamento fisico-chimico del resist, che porta a un
cambiamento della solubilità di quest’ultimo nella successiva
soluzione di sviluppo.
Si hanno due possibilità. Nella figura è riportato il substrato in
silicio in azzurro, in grigio rigato trasversale dovrebbe essere
rappresentato lo strato di ossido, mentre il resist è la parte
superiore. Quindi, la parte irraggiata del resist è dovuta alla
maschera ed è il rettangolino centrale.
Se si ha il resist positivo, l'irraggiamento comporta l'attivazione
della rottura di alcuni legami del resist e quindi il resist si rammollisce e diventa più solubile nella
successiva soluzione di sviluppo → dove è stato irraggiato (dove è presente la griglietta) il resist si
rammollisce e viene poi tolto durante la fase di sviluppo, mentre quello non irraggiato rimane lo
stesso che si è visto nella deposizione prima. Le soluzioni di sviluppo per il resist positivo
solitamente sono delle soluzioni alcaline, ovvero delle soluzioni basiche, e sono soluzioni a base di
idrossido di sodio o idrossido di potassio. Questo perché si è visto che il resist è una soluzione
polimerica: polimero e solvente; quando si parla di solvente, per i polimeri, solitamente sono
solventi organici. Il solvente viene fatto evaporare e si rimane solo con il polimero. Viene poi
irraggiato e si rompono le catene. Si possono utilizzare delle soluzioni che non solubilizzano il
resist (quindi non devono essere solventi organici, perché, altrimenti, solubilizzerebbero anche il
resist rimasto), ma invece solubilizzano il resist che è stato indebolito dall'irraggiamento, e queste
sono le soluzioni alcaline. Il resist positivo comporta inoltre una risoluzione maggiore rispetto al
resist negativo.
Nel caso del resist negativo, con l'irraggiamento UV visibile la radiazione comporta un crosslinking
del resist, ovvero la reticolazione del resist → si formano dei legami tra le catene polimeriche del
resist che lo rafforzano e quindi lo rendono meno solubile rispetto alla soluzione di sviluppo.
Poiché è reso più resistente, come soluzione di sviluppo si possono utilizzare dei solventi organici,
che invece solubilizzano il resist classico che non viene modificato dalla radiazione. Quindi, per lo
sviluppo dei resist negativo, si andranno ad utilizzare dei solventi organici.
8
Costabile/Cascone
24 BIONANOTECNOLOGIE (Carmagnola)
28/04/2022
Si ottengono risoluzioni leggermente inferiori perché, anche se il solvente organico non solubilizza
più il fotoresist reticolato, il resist reticolato rigonfia (swelling) un po’ in presenza di un solvente
organico: il solvente organico penetra un po’ all'interno del polimero reticolato, lo fa rigonfiare e
ne aumenta la dimensione. Questo fa sì che si perda un po’ di risoluzione proprio a causa dello
swelling dovuto ai solventi organici utilizzati nello sviluppo.
Sia per il resist positivo che per il resist negativo, esiste un valore di dose (l'intensità di luce
incidente per il tempo di esposizione) soglia al di sopra del quale effettivamente si ha il
cambiamento di comportamento del resist e quindi si ha l'effetto dell'irraggiamento.
Se si espone il resist con una dose inferiore alla dose soglia, non è detto che il cambiamento sia
così significativo e quindi si perde anche in questo caso di risoluzione e poi di qualità nel
trasportare l'immagine dalla maschera al resist.
La dose soglia è quella dose in cui l'effetto della reazione è significativo; quindi, permette di
ottenere un cambiamento nel materiale, tale che in fase di sviluppo si riesce a togliere tutto il
resist che deve essere tolto, quindi quello irraggiato e non irraggiato in funzione del tipo di resist
che si sta selezionando. Tale soglia è sempre da superare in entrambi i processi.
Solitamente, nel resist positivo, la dose minima aumenta la solubilità nei solventi alcalini di 10-100
volte e quindi si necessita di un tempo molto inferiore per eliminare la parte irraggiata rispetto a
quella non irraggiata: quest’ultima non viene rimossa.
Una volta che si ha, sia con il resist positivo che negativo, eliminato nella fase di sviluppo una parte
del resist, quello che rimane è il substrato che è protetto dal resist solo in alcune zone, le quali
rispecchiano sempre la geometria che si vuole andare poi a trasportare sul substrato.
Dopo aver visto come è stato irraggiato,
ci si attenzionerà nella parte di sviluppo.
Questo step serve per rimuovere una
parte del resist che è stato esposto o non
esposto; può avvenire in condizioni wet,
quindi da bagnato, o può venire a secco,
in condizioni asciutte.
Lo sviluppo può essere immaginato come
un'immersione in una soluzione, quindi è
un processo bagnato.
Nei processi di sviluppo bagnati, si gioca
soprattutto sulla differenza di peso molecolare comportata dalle radiazioni UV oppure, in alcuni
casi, dal cambiamento di polarità.
Nei processi di sviluppo da bagnati, si può immergere il campione in una soluzione di sviluppo per
un determinato tempo, eventualmente aggiungendo agitazione meccanica (agitazione della
soluzione) e temperatura, se questo può aiutare la fase, oppure il procedimento, sempre da
bagnato, quindi utilizzando sempre una soluzione, può essere attraverso un sistema di spray e in
questo caso la soluzione viene spruzzata su tutta l'area del campione. La differenza, anche qui, è
che tendenzialmente nelle fasi di sviluppo per immersione, si ha una quantità di soluzione di
sviluppo maggiore utilizzata e si hanno sempre i problemi che riguardano una maggior quantità di
materiale di scarto da smaltire, il quale è solitamente o solvente organico o soluzione altamente
alcalina che quindi devono essere smaltiti nel modo corretto; sono però più semplici perché basta
prendere il campione e immergerlo in un contenitore contenente la soluzione, invece con il
sistema spray, bisogna avere lo strumento adeguato a spruzzare la soluzione di sviluppo sul
campione.
RICORDA: per resist positivi si hanno soluzioni alcaline, mentre per resist negativi solventi organici.
9
Costabile/Cascone
24 BIONANOTECNOLOGIE (Carmagnola)
28/04/2022
Si può, però, fare anche lo sviluppo a secco, che avviene solitamente all'interno di un reattore a
plasma vuoto in cui si utilizza come gas l'ossigeno, che reagisce con il resist in maniera diversa e
quindi asporta una parte di resist che viene reso volatile con l’impatto dell'ossigeno e asportato
dal vuoto del sistema e quindi eliminato in questo modo.
Una volta realizzato lo sviluppo è possibile, soprattutto nel caso dei resist negativi, che rimanga un
sottile strato di resist nella zona rimossa. In questo caso si deve procedere con uno step, il
Descumming, che non è altro che un trattamento blando, sempre al plasma e utilizzando sempre
l'ossigeno e che quindi permette di rimuovere quel sottile strato di resist che potrebbe essere
rimasto dopo lo sviluppo.
Si immagini di avere il substrato con il resist rimasto dopo lo sviluppo e nella parte in cui è stato
rimosso il resist, in realtà, ce n'è ancora una piccolissima parte, un film sottilissimo, il quale deve
essere tolto in questo step perché andrebbe a schermare una parte del substrato e questo viene
fatto anche in questo caso, nei sistemi a plasma.
Alla fine di tutti questi processi, si fa ancora un trattamento termico, l'ultimo, ed è il trattamento
di Postbaking. Solitamente è un trattamento termico un pochino più forte rispetto a quello di
softbaking che serve per eliminare il solvente residuo.
Quando si parla di solvente residuo, si fa riferimento ad un eventuale solvente assorbito dal resist
rimasto durante la fase di sviluppo. Questa cosa è un pochino più accentuata nel caso di resist
negativi.
Bisogna pensare che il resist serve da protezione al substrato. Questo sarà poi sottoposto ad altri
trattamenti, i quali però avranno effetto anche sul resist→ il resist deve essere resistente. Per
questo, il trattamento termico aumenta la resistenza del resist e ne migliora quindi la resistenza in
funzione degli attacchi chimico-fisici a cui può essere sottoposto nelle fasi successive di
trattamento del substrato. Il Postbaking può cambiare in funzione del resist utilizzato.
Si effettua solitamente un trattamento termico a 120 ° per 20 minuti. Anche in questo caso, può
causare una perdita di spessore del resist, perché appunto va via una parte di solvente, e in questo
caso potrebbe anche andare a introdurre delle tensioni residue.
Alla fine dell'ultimo passaggio, quindi di questo trattamento termico, si ha il campione pronto: si è
riusciti ad andare a proteggere il wafer di silicio con uno strato di resist solo in determinate zone.
Al substrato, poi, possono essere effettuati
due tipi di trattamenti: ci sono i trattamenti
di Etching che prevedono l'asportazione di
materiale dal substrato, oppure possono
esserci processi di Deposizione che
comportano invece l'aggiunta di materiale
al substrato.
Si supponga di avere il substrato con il resist
che ha subito il trattamento di Postbaking,
quindi si ha il prodotto finito. A questo
punto si può decidere o di rimuovere una parte di materiale, facendo un Etching, oppure si può
andare ad aggiungere materiale (come metalli, ceramici o altri materiali).
I trattamenti hanno efficacia, effettivamente, solo dove non è presente il resist. In alcuni casi, i
trattamenti sono selettivi, ovvero effettivamente vengono fatti solo nelle zone in cui non è
presente il resist, molto spesso, però, il trattamento è fatto su tutto il campione (il trattamento
10
Costabile/Cascone
24 BIONANOTECNOLOGIE (Carmagnola)
28/04/2022
viene fatto anche su resist, che però poi nell'ultimissima fase viene rimosso e quindi non è
importante che il resist venga modificato).
Infatti, come si vede nell’immagine, si ha il substrato con il resist: si può quindi deporre materiale
o eliminare materiale. Il resist protegge una parte del substrato e quindi la deposizione o
l’eliminazione di materiale, in realtà, avviene in fin dei conti solo nelle parti dove non è presente il
resist. In realtà, molto spesso, quello che succede è quello che si osserva nello schema più a destra
dell’immagine: si ha il substrato con il resist diprotettivo. Se si va a deporre, la deposizione avviene
sia sul resist che sul substrato, ma poi nell'ultima fase, detta fase di Stripping e in cui viene tolto il
resist, viene tolto sia il resist che il materiale deposto. Quindi quello che si ottiene alla fine, sarà
che il materiale è deposto solo nelle zone in cui non era presente il resist.
Lo stripping è la rimozione del resist e anche in questo caso può essere da bagnato o da secco.
Nel caso di stripping wet, si immerge il campione in soluzioni che rimuovono solo lo strato di
resist. Queste soluzioni possono essere o delle soluzioni di acidi forti, come acido solforico, o la
soluzione piragna, che è un mix di acido solforico e perossido di idrogeno (quindi acqua
ossigenata, che in realtà è una soluzione molto pericolosa) o si possono utilizzare ancora solventi
organici o alcune soluzioni che sono state pensate apposta in funzione del resist utilizzato. Tra le
soluzioni che si possono utilizzare, c'è anche una delle due soluzioni che si è vista per la pulizia del
wafer, che è la RCA1, ed è la soluzione che permetteva di andare a eliminare residui organici e
quindi anche il resist.
Se invece si pensa ai processi di stripping da asciutto, anche in questo caso la tecnica
maggiormente utilizzata è il plasma a vuoto con all'interno gas ossigeno. Gli atomi di ossigeno
attivi convertono il resist organico in specie volatili che poi vengono asportate dal vuoto che si
genera nella camera in cui viene fatto il plasma.
I vantaggi e svantaggi delle tecniche asciutte e bagnate sono sempre gli stessi. Gli svantaggi delle
tecniche bagnate riguardano sempre la rimozione e lo smaltimento dei rifiuti, lo stoccaggio dei
solventi e nel caso dei processi al plasma è sempre un po’ l'implementazione a livello industriale
che invece è più facile quando si pensa di immergere un substrato in una soluzione.
11
Comunale/Galbo
Lezione 25 Bionanotecnologie (Boffito)
28/04/2022
LITOGRAFIA TRADIZIONALE
Video: https://www.youtube.com/watch?v=B0g1_rr-ApI :
An Introduction to Microfabrication via Photolithography
The increased need for portable devices with extremely small sample volumes has driven the
miniaturization of devices called BioMEMS. BioMEMS are produced via microfabrication a process
of fabrication micro scale structures using semiconductor technology. A micro fabrication
technique called photolithography is often used to patterns complex patterns onto a substrate
using light. This video will introduce the process of photolithography demonstrate the technique in
the laboratory and provide insight into some applications where photo lithography is used.
Un'introduzione alla microfabbricazione tramite fotolitografia
La maggiore necessità di dispositivi portatili con volumi di campione estremamente ridotti ha
portato alla miniaturizzazione di dispositivi chiamati BioMEMS. I BioMEMS sono prodotti tramite
micro fabbricazione, un processo di fabbricazione di strutture su micro scala utilizzando la
tecnologia dei semiconduttori. Una tecnica di micro fabbricazione chiamata fotolitografia viene
spesso utilizzata per modellare modelli complessi su un substrato utilizzando la luce. Questo video
introdurrà il processo di fotolitografia, dimostrerà la tecnica in laboratorio e fornirà informazioni
su alcune applicazioni in cui viene utilizzata la fotolitografia.
Principles of Photolithography
Semiconductor namely silicon wafers are typically used as the substrate in micro fabrication via
photolithography. First, the wafer is cleaned to remove organic contaminants, then a substrate
layer is formed on top, for example silicon dioxide is formed using thermal oxidation.
To begin photolithography, a layer of a viscous UV reactive substance called “photoresist” is spin
coated to a uniform thickness on the substrate. The photo resist coated substrate is then exposed
to intense UV light during patterned stencil called a “photomask”. Two types of photoresist exist:
first positive resist becomes soluble upon exposure to UV light; in contrast, the exposed regions of
negative resist become cross-linked and are insoluble. The soluble part of the photoresist is then
removed using the developer solution leaving behind patterned photoresist and exposed substrate
regions. The pattern is the etch tin to the exposed silicon dioxide layer a dry etching technique
called “Reactive Ion Etching” uses chemically reactive plasma to remove material deposited on the
wafer.
Alternatively, a wet etch such as hydrofluoric acid can be used to etch silicon dioxide. The etching
technique will vary depending on the material being processed. Finally, the remaining photoresist
is removed leaving a precisely patterned silicon microstructure.
This structure con then be used directly or as a mold for the fabrication of electronic and
microfluidic devices.
Now that the basic procedure of photolithography has been explained, let’s take a look at how to
perform the procedure in a cleanroom environment.
Principi di fotolitografia
I semiconduttori, in particolare i wafer di silicio (SIlicon Wafer), vengono generalmente utilizzati
come substrato nella microfabbricazione tramite la fotolitografia.
1
Comunale/Galbo
Lezione 25 Bionanotecnologie (Boffito)
28/04/2022
Innanzitutto, il wafer viene pulito per rimuovere i contaminanti organici, quindi sulla parte
superiore viene formato uno strato di substrato, ad esempio si forma biossido di silicio utilizzando
l'ossidazione termica.
Per iniziare la fotolitografia, uno strato di una sostanza viscosa reattiva ai raggi UV chiamata
“photoresist” viene rivestito per rotazione con uno spessore uniforme sul substrato.
Il substrato rivestito di fotoresist viene quindi esposto a un'intensa luce UV durante lo stencil
modellato chiamato “photomask”.
Esistono due tipi di fotoresist: il primo resist positivo diventa solubile dopo l'esposizione alla luce
UV; al contrario, le regioni esposte del resist negativo diventano reticolate e sono insolubili.
La parte solubile del fotoresist viene quindi rimossa utilizzando la soluzione di sviluppo lasciando
dietro di sé regioni di substrato modellate e esposte.
Il modello è la latta di incisione sullo strato di biossido di silicio esposto, una tecnica di incisione a
secco chiamata Reactive Ion Etching, che utilizza plasma chimicamente reattivo per rimuovere il
materiale depositato sul wafer.
2
Comunale/Galbo
Lezione 25 Bionanotecnologie (Boffito)
28/04/2022
In alternativa, per attaccare il biossido di silicio può essere utilizzato un attacco a umido come
l'acido fluoridrico.
La tecnica di incisione varia a seconda del materiale in lavorazione.
Infine, il fotoresist rimanente viene rimosso lasciando una microstruttura di silicio modellata con
precisione.
Questa struttura può quindi essere utilizzata direttamente o come stampo per la fabbricazione di
dispositivi elettronici e microfluidici.
Ora che è stata spiegata la procedura di base della fotolitografia, diamo un'occhiata a come
eseguire la procedura in un ambiente in camera bianca.
Photolithography with Positive Resist
First the photo mask that will be used to create the pattern is designed and ordered from a
manufacturer then the photo lithography process is performed in a cleanroom which routinely
filters air in order to minimize dust contamination.
First, a silicon dioxide is formed on the silicon wafer surface using thermal oxidation once the wafer
is oxidized it is placed on a spin coater Chuck. Photoresist is poured into the center of the wafer
until it covers most of the wafer surface (orange lighting prevents photoresist crosslinking by
ambient UV light).
The photoresist is the spin-coating to create an even thin coating (spin-coating speeds are used to
control thickness)
Next, the coated wafer is soft baked on a hot plate to evaporate any solvent and solidify the
photoresist.
The wafer is loaded into the mask aligner containing the specific photo mask for the pattern
desired.
Then, the wafer is exposed to UV light through the photo mask and then hard-baked to set the
developed photoresist.
The soluble regions of photoresist are removed using the developer solution specific to the type of
photoresist used.
Finally, the wafer is rinsed and dried leaving the pattern photoresist on the wafer.
Fotolitografia con resistenza positiva
Per prima cosa viene progettata e ordinata da un produttore la maschera fotografica che verrà
utilizzata per creare il pattern, quindi viene eseguito il processo di fotolitografia in una camera
bianca che filtra regolarmente l'aria per ridurre al minimo la contaminazione da polvere.
In primo luogo, un biossido di silicio viene formato sulla superficie del wafer di silicio mediante
ossidazione termica. Una volta che il wafer è ossidato, viene posizionato su un mandrino per la
3
Comunale/Galbo
Lezione 25 Bionanotecnologie (Boffito)
28/04/2022
verniciatura a rotazione. Photoresist viene versato al centro del wafer fino a coprire la maggior
parte della superficie del wafer (l'illuminazione arancione impedisce la reticolazione del
photoresist da parte della luce UV ambientale).
Il fotoresist è lo spin-coating per creare un rivestimento sottile e uniforme (le velocità di spincoating sono usate per controllare lo spessore)
Successivamente, il wafer rivestito viene cotto su una piastra calda per far evaporare qualsiasi
solvente e solidificare il fotoresist.
Il wafer viene caricato nell'allineatore maschera contenente la maschera fotografica specifica per il
pattern desiderato.
Quindi, il wafer viene esposto alla luce UV attraverso la maschera fotografica e quindi cotto per
impostare il fotoresist sviluppato.
Le regioni solubili del fotoresist vengono rimosse utilizzando la soluzione di sviluppo specifica per il
tipo di fotoresist utilizzato.
Infine, il wafer viene risciacquato e asciugato lasciando il pattern photoresist sul wafer.
Pattern Etching and Cleaning
Following photolithography, the pattern is etched into the top layer of silicon dioxide using deep
reactive ion etching. After etching, the remaining photoresist is removed by soaking the wafer in
an appropriate photoresist remover. The wafer is then rinsed with isopropanol and acetone, and
dried under nitrogen. Next, a piranha cleaning solution is prepared to remove excess organic
residues. Piranha is a mixture of concentrated sulfuric acid and hydrogen peroxide. This solution
must be used in an approved well-ventilated hood with proper training.
Piranha is extremely dangerous and can be explosive (Caution: Piranha can be explosive, and must
only be handled with proper training!)
The wafer is submerged in piranhas for several minutes and then rinsed with water.
Finally, the wafer is rinsed with acetone and methanol and dried with nitrogen gas to leave the
clean final structure.
Incisione e pulizia del modello
Dopo la fotolitografia, il modello viene inciso nello strato superiore di biossido di silicio utilizzando
un'incisione con ioni reattivi in profondità. Dopo l'attacco, il fotoresist rimanente viene rimosso
immergendo il wafer in un appropriato dispositivo di rimozione del fotoresist. Il wafer viene quindi
risciacquato con isopropanolo e acetone ed essiccato sotto azoto. Successivamente, viene
preparata una soluzione detergente piranha per rimuovere i residui organici in eccesso. Piranha è
una miscela di acido solforico concentrato e perossido di idrogeno.
Questa soluzione deve essere utilizzata in una cappa approvata e ben ventilata con un'adeguata
formazione.
Il piranha è estremamente pericoloso e può essere esplosivo (Attenzione: il piranha può essere
esplosivo e deve essere maneggiato solo con un addestramento adeguato!)
La cialda viene immersa nei piranha per diversi minuti e poi risciacquata con acqua.
Infine, il wafer viene risciacquato con acetone e metanolo ed essiccato con azoto gassoso per
lasciare la struttura finale pulita.
Applications
Microscale patterns generated by photolithography are used to create a wide range of BioMEMs
devices.
4
Comunale/Galbo
Lezione 25 Bionanotecnologie (Boffito)
28/04/2022
Application #1: Gold Micropatterns
Photolithofraphy can be used to create metal patterns on a substrate such as a silicon wafer or
glass slide; instead of edging away the top layer of the substrate, metal is deposited on top of the
photoresist pattern using sputter coating or metal evaporation. In this example, a chromium
adhesion layer is coated on a glass slide followed by a gold layer.
After deposition, the photoresist is removed to expose the gold patterns; the gold patterns can
then be used for the controlled assembly of cells or as electrodes for bio electronics.
Application #2: Polymer Micropatterns
Photolithography can also be used to create polymer micro patterns; for this a layer of polymer is
deposited on top of the silicon wafer.
Prior to photolithography like with the silicon dioxide layers on silicon wafers, the polymer pattern
exposed by the developed photoresist is etched away.
The remaining photoresist is then removed to leave only the patterned polymer. The pattern
polymer can be used to induce controlled cell growth on or around the polymer islands.
Application #3 Focused-Ion Beam
While photolithography is limited to the microscale, nano scale patterns can be fabricated using a
focused ion beam or FIB.
FIB uses a beam of ions to ablate or deposit materials on a surface in a precise pattern.
In this example, pre patterned gold electrodes were functionalized with molybdenum crystals.
Then, nano scale platinum bridges were deposited using fib to connect the crystal to the gold
electrode. These structures can then be used to improve and further miniaturized bio MEMS
devices.
You’re just watched Jove’s introduction to microfabrication via photolithography.
You should now understand the basic photolithography process, how it is performed in the
laboratory and some ways that he technique is used in the fabrication on bio MEMS devices.
Applicazioni
I modelli in microscala generati dalla fotolitografia vengono utilizzati per creare un'ampia gamma
di dispositivi BioMEM.
Applicazione #1: micromodelli d'oro
La fotolitografia può essere utilizzata per creare motivi metallici su un substrato come un wafer di
silicio o un vetrino;
invece di rimuovere lo strato superiore del substrato, il metallo viene depositato sopra il modello
di fotoresist utilizzando un rivestimento a spruzzo o l'evaporazione del metallo. In questo
esempio, uno strato di adesione di cromo è rivestito su un vetrino seguito da uno strato d'oro.
Dopo la deposizione, il fotoresist viene rimosso per esporre i motivi dorati; i modelli in oro
possono quindi essere utilizzati per l'assemblaggio controllato di celle o come elettrodi per la
bioelettronica.
5
Comunale/Galbo
Lezione 25 Bionanotecnologie (Boffito)
28/04/2022
Applicazione n. 2: micromodelli polimerici
La fotolitografia può essere utilizzata anche per creare micro pattern polimerici; per questo uno
strato di polimero viene depositato sopra il wafer di silicio.
Prima della fotolitografia, come con gli strati di biossido di silicio su wafer di silicio, il modello
polimerico esposto dal fotoresist sviluppato viene inciso via.
Il fotoresist rimanente viene quindi rimosso per lasciare solo il polimero modellato. Il modello
polimerico può essere utilizzato per indurre una crescita cellulare controllata sopra o intorno alle
isole polimeriche.
Applicazione n. 3 Fascio di ioni focalizzati
Mentre la fotolitografia è limitata alla microscala, i modelli in nanoscala possono essere fabbricati
utilizzando un fascio ionico focalizzato o FIB.
FIB utilizza un fascio di ioni per ablare o depositare materiali su una superficie secondo uno
schema preciso.
In questo esempio, elettrodi d'oro pre-modellati sono stati funzionalizzati con cristalli di
molibdeno.
Quindi, ponti di platino su scala nanometrica sono stati depositati utilizzando FIB per collegare il
cristallo all'elettrodo d'oro.
Queste strutture possono quindi essere utilizzate per migliorare e ulteriormente i dispositivi EMS
bio.
Hai appena visto l'introduzione di Jove alla microfabbricazione tramite la fotolitografia.
Ora dovresti capire il processo di base della fotolitografia, come viene eseguito in laboratorio e
alcuni modi in cui la tecnica viene utilizzata nella fabbricazione su dispositivi bio MEMS.
6
Comunale/Galbo
Lezione 25 Bionanotecnologie (Boffito)
28/04/2022
LITOGRAFIA TRADIZIONALE
La litografia tradizionale è la litografia che utilizza i raggi UV visibili, detta anche fotolitografia, e
ha però un limite: può difficilmente raggiungere 100 nm di risoluzione.
Quindi, sono state pensate e sviluppate altre tecniche litografiche che utilizzassero altri tipi di
radiazioni, al fine di aumentare la risoluzione.
La risoluzione è comunque proporzionale ai volumi di produzione. Come sappiamo, più andiamo
verso tecniche che portano a risoluzione più alte, più diminuiamo i volumi di produzione.
Le altre tecniche, alternative, sono:
 Litografia a raggi X (λ= 0.1-10 nm) o utilizzando l’UV estremo (una delle radiaizoni UV che
abbiamo visto, ed è quella che ha le lunghezze d’onda più corte, (10-70 nm)).
 Litografia che fa uso di particelle cariche – quando parliamo di particelle cariche ci
riferiamo a elettroni o a ioni. Quindi parleremo di litografia a fascio di elettroni e di
litografia a fascio ionico.
La RISOLUZIONE è data da questa formula: R=k1∙λ/NA (equazione di Rayleigh)
NA apertura numerica della lente
NA = n (indice di rifrazione) senα
α = apertura angolare = 1/2 angolo cono raggi superficie-lente
Essa è direttamente proporzionale alla lunghezza d’onda della radiazione incidente usata e poi
dell’apertura numerica della lente.
7
Comunale/Galbo
Lezione 25 Bionanotecnologie (Boffito)
28/04/2022
In questa slide partiamo dalla fotolitografia che abbiamo visto, vediamo che ha il raggio più largo
(risoluzione inferiore), si passa poi alla litografia a raggi X (presenta un miglioramento in quanto
non ha fenomeni di rifrazione, come invece ha la fotolitografia che utilizza i raggi UV).
E poi ci sono le due tecniche che invece utilizzano le particelle cariche:
1. Tecnica che utilizza gli elettroni
2. Litografia a fascio ionico
Questo è lo spettro delle radiazioni, al momento siamo sull’ultravioletto.
Adesso, passiamo ai raggi X.
LITOGRAFIA A RAGGI X
I passi sono gli stessi di quelli visti precedentemente; ciò che cambia è che la maschera dovrà essere
sensibile ai raggi X, quindi avremo delle zone trasparenti ai raggi X, delle zone che, invece,
assorbono i raggi X, e la stessa cosa per i resist.
Ciò che cambia principalmente sono i materiali utilizzati per rivestire e per fare le maschere.
In questa immagine vediamo i vari sistemi per mantenere il substrato e con la fonte di raggi X che va
a colpire prima la maschera e poi il substrato.
8
Comunale/Galbo
Lezione 25 Bionanotecnologie (Boffito)
28/04/2022
I raggi X sono quella porzione dello spettro elettromagnetico, che ha una lunghezza compresa tra 10
nm e 1pm, e sono classificati come radiazioni ionizzanti.
I raggi X che hanno lunghezze d’onda che superano lo 0,1 nm sono considerati raggi X molli e sono
quelli che vengono normalmente utilizzanti in diagnostica.
I raggi X con lunghezza d’onda inferiore a 0,1 nm sono considerati raggi X duri e vengono utilizzati
maggiormente in terapia oncologica.
Sono stati scoperti dal fisico Wilhelm Conrad Roentgen nel 1895, ed egli è stato il primo a ricevere il
premio Nobel per la fisica nel 1901.
Vennero scoperti da lui mentre stava facendo degli esperimenti con raggi catodici in un tubo a
vuoto, e si notò che su uno schermo di platinocianuro di bario compariva una certa fluorescenza, si
era anche accorto che se andava a interporre una mano, riusciva a ottenere un’immagine della sua
mano sulla lastra. Quindi, aveva capito che si formavano, in qualche modo, delle radiazioni che
erano capaci di superare il materiale con cui era fatto il sistema che lui stava studiando.
DIFFERENZE TRA LITOGRAFIA A RAGGI X E LITOGRAFIA TRADIZIONALE
I passaggi tra le due litografie, come abbiamo detto, sono gli stessi, ma vi sono delle differenze.
VANTAGGI DI UTILIZZARE LA RADIAZIONE A RAGGI X RISPETTO AI RAGGI UV
• I raggi X hanno una lunghezza d’onda minore (4-50 Å) rispetto ai raggi UV (2000-4000 Å):
riusciamo a ottenere risoluzioni più alte.
• Gli effetti di diffrazione sono quindi ridotti e la risoluzione è maggiore. Anche le litografie con
particelle cariche, come vedremo, permettono di ottenere una risoluzione molto alta, ma, per
funzionare, hanno bisogno di un sistema ad alto vuoto, cosa che nel caso dei raggi X non è richiesta.
Nel caso dei raggi X abbiamo il resist, poi si interpone la maschera, viene fatta passare la radiazione.
• È una tecnica di riproduzione 1X – l’immagine nella maschera è l’esatta riproduzione del pattern
(stessa scala). Le maschere in questo caso hanno sempre una scala 1:1, quindi non si possono
utilizzare sistemi ottici che permettono di avere una diminuzione della dimensione della maschera.
9
Comunale/Galbo
Lezione 25 Bionanotecnologie (Boffito)
28/04/2022
Quindi, le maschere devono essere sempre in rapporto 1:1 con l’immagine che si vuole ottenere sul
substrato.
• Richiede maschere ad alta precisione: anche in questo caso vi sono processi molto costosi di
produzione delle maschere per raggi X rispetto alle maschere utilizzate per la radiazione univisibile.
• Esistono 3 sorgenti principali di raggi x:
- Tubi radiogeni
- Laser plasma
- Sincrotroni (più comuni in micro-nano fabbricazione)
SCELTA DEL RESIST
Vediamo quali sono le CARATTERISTICHE CHE DOVREBBE AVERE IL RESIST QUANDO VIENE
IMPIEGATO NELLA LITOGRAFIA A RAGGI X
▪ Possedere elevata sensibilità ai raggi X
▪ Garantire elevata risoluzione
▪ Essere resistente all’etching (chimico/ionico e plasma) – caratteristica tipiche anche dei resist per
fotolitografia normale
▪ Avere stabilità termica (T> 140°C) - caratteristica tipiche anche dei resist per fotolitografia
normale
Al momento non esiste un materiale che garantisca tutti questi requisiti
• Il materiale più utilizzato come resist è il polimetilmetacrilato (PMMA). Commercialmente si
conosce come plexiglass. Formula (da non ricordare):
Possono essere usati altri tipi di acrilati per la litografia a raggi X; per un determinato tipo di
litografia a raggi X, che vedremo successivamente e si chiama tecnica LIGA, può essere usato anche
l’acido polilattico.
LIMITE NEI RESIST ATTUALMENTE UTILIZZATI (anche nel polimetilmetacrilato):
• bassa sensibilità ai raggi X – per aumentarne la sensibilità si possono includere elementi a
elevato numero atomico all’interno del resist. Anche in questo caso, la radiazione può o rompere
le catene o cross linkare le catene.
Si può avere, anche in questo caso, un resist positivo o un resist negativo.
• Generalmente i resist NEGATIVI per litografia raggi X hanno maggiore sensibilità rispetto a quelli
positivi.
10
Comunale/Galbo
Lezione 25 Bionanotecnologie (Boffito)
28/04/2022
In generale, gli stessi resist che utilizziamo per la litografia a raggi X possono essere utilizzati anche
per le litografie con le particelle cariche, perché più o meno il meccanismo di funzionamento
dovrebbe essere lo stesso.
Quindi, il polimetilmetacrilato viene utilizzato sia nella litografia a raggi X, ma anche nel caso delle
litografie con le particelle cariche.
I passaggi poi sono sempre gli stessi. Quindi abbiamo deposizione del resist, irraggiamento con la
radiazione X (con interposta la maschera); a questo punto si ha la fase di sviluppo, in cui verrà
rimossa una parte del resist. Otteniamo il resist con la geometria desiderata, si vanno a fare poi i
vari processi di etching o deposizione. Quello che cambia è il tipo di radiazione e il tipo di materiale,
e la maschera.
FABBRICAZIONE DELLA MASCHERA PER LITOGRAFIA A RX
Come sono strutturate le maschere per la litografia a raggi X?
 Strato assorbente = Anche in questo caso hanno una parte che assorbe la radiazione, e in
questo caso sono parti realizzate con materiali a elevato numero atomico, che assorbono
maggiormente i raggi X (oro, tungsteno, tantalio o delle loro leghe).
 Substrato = Ci sono poi delle zone della maschera che sono trasparenti alla radiazione X
(titanio, silicio e altri materiali come il berillio).
Vediamo come si fabbrica la maschera per la litografia a raggi X.
Le maschere sono a loro volta realizzate con tecniche litografiche. E, in particolare, le maschere per
raggi X, che devono avere elevate risoluzioni, sono solitamente realizzate con le litografie a
particelle cariche.
Abbiamo un wafer di silicio, che è trasparente alle radiazioni X, che è coperto da uno strato d’oro
(materiale assorbente). L’oro, a sua volta, è rivestito da uno strato di resist (PMMA).
Come viene disegnato il pattern sulla maschera?
Per prima cosa, attraverso un fascio di elettroni si scolpisce lo strato di PMMA, quindi il resist viene
disegnato dal fascio di elettroni.
Successivamente, tutto il substrato viene sottoposto a un etching ionico: all’interno di un sistema al
plasma, utilizzando ioni di Argon, si fa un etching.
L’etching fisico fa sì che venga rimosso l’oro solo nelle zone in cui prima era stato rimosso il resist,
perché il PMMA evidentemente scherma la zona di oro.
11
Comunale/Galbo
Lezione 25 Bionanotecnologie (Boffito)
28/04/2022
A questo punto si ha la rimozione del PMMA (fase finale: fase di stripping), e quello che otteniamo
è la maschera composta dalla parte di silicio trasparente, e dalle varie zone di oro, che sono invece il
materiale assorbente, e che quindi portano alla formazione della geometria.
Quindi, è il fascio di elettroni che fa un’azione di spatter sul resist di polimetilmetacrilato.
In questa slide sono riportati i confronti tra i metodi di produzione di una maschera per
fotolitografia (litografia con raggi UV) e una maschera per litografia con raggi X.
In generale, quando si pensa alla produzione di una maschera si ha in mente il disegno che si vuole
trasportare sul wafer (sul substrato).
Quindi, per prima cosa si realizza il disegno con un sistema di CAD.
Poi, si ha la preparazione del substrato. Nel caso della maschera ottica, il substrato può essere
solitamente quarzo, trasparente alla radiazione UV. Nel caso, invece, della maschera a raggi X, si
avrà la membrana dei vari materiali visti prima, che sono, invece, trasparenti alla radiazione raggi X
(silicio, berillio, titanio).
Si ha poi, sempre nella preparazione del substrato, la deposizione del film metallico. Nel caso delle
maschere per radiazione UV abbiamo visto che è uno strato di Cromo. Nel caso, invece, delle
maschere con radiazione a raggi X, solitamente vi è una combinazione di uno strato di Cromo,
seguita da uno strato di metallo pesante (può essere l’oro, ma anche il tungsteno e il tantalio).
Si ha poi il disegno effettivo del pattern sulla maschera: si fa il rivestimento con il resist, si espone il
pattern utilizzando la radiazione (in figura è scritta anche ottica, ma in realtà in generale per fare le
maschere si usa prevalentemente il fascio di elettroni).
Poi si ha lo sviluppo del pattern, con l’etching del cromo, nel caso della maschera per fotolitografia.
Invece, poi avremo la parte di etching con l’oro nella parte di litografia a raggi X, e poi c’è lo stript
del resist, e quindi la rimozione finale del resist.
Più o meno i passaggi sono gli stessi, cambiano in alcuni punti, quello che cambia sono
principalmente i costi e la durata: si ha qualche passaggio in più sulla maschera a raggi X, però si
devono avere risoluzioni maggiori.
Risoluzioni maggiori, tempi di produzione più lunghi: ciò è un’indicazione dei costi (circa 4 volte in
più e dura quasi 3 volte in più).
12
Comunale/Galbo
Lezione 25 Bionanotecnologie (Boffito)
28/04/2022
LIGA
Particolare tecnica litografica a raggi X, che unisce il metodo dello stampo sacrificale alla litografia a
raggi X e alla elettrodeposizione.
Tendenzialmente la tecnica prevede di fare uno stampo metallico. Per farlo prima di tutto si usa la
litografia a raggi X, quindi si va a definire una geometria sul resist.
Il resist, prima di essere rimosso, viene riempito con un metallo, attraverso la fase di
elettrodeposizione. A questo punto, il resist viene rimosso e quello che si ottiene è un componente
tridimensionale metallico, che può essere utilizzato come componente, ma principalmente viene
utilizzato come stampo, utilizzato con materiali polimerici.
La prima volta in cui è stata unita l’elettrodeposizione alla litografia a raggi X, quindi si ha solo la
parte “LIG” del nome, è stato nel 1975 all’IBM.
Nel 1982, nell’istituto tedesco è stato aggiunto al processo anche lo stampo di materiali plastici, e
quindi abbiamo ottenuto l’acronimo LIGA.
E’ quindi una tecnica che permette la produzione di dispositivi polimerici su larga scala, partendo
però da uno stampo ottenuto con la tecnica litografica, utilizzando i raggi X.
Le principali applicazioni della tecnica LIGA: strutture MEMS e in generale micro e nano
fabbricazione.
Si svolge in tre passi: (1) LITOGRAFIA, seguita da (2) LETTRODEPOSIZIONE DI UN MATERIALE, che
poi verrà utilizzato come (3) STAMPO di materiali plastici.
VANTAGGI:
✓ impressionare resist spessi con elevata fedeltà = i resist utilizzati sono molto spessi, quindi si
riesce a incidere e impressionare resist molto spessi con elevata fedeltà e elevata risoluzione.
✓ i raggi X hanno lunghezza d’onda corta e quindi si ha bassa diffrazione
✓ una volta realizzato lo stampo, questo può essere utilizzato per produzioni in serie
SVANTAGGI:
✓ necessita di un investimento considerevole non essendo un processo “standard”;
✓ realizzazione della maschera molto costosa;
✓ necessità di sorgenti di raggi X ad elevata energia, molto costose e rare;
✓ tempi di sviluppo lunghi.
13
Comunale/Galbo
Lezione 25 Bionanotecnologie (Boffito)
28/04/2022
A-abformung
Si parte da un substrato in cui è stato deposto il resist per litografia a raggi X, cioè molto
probabilmente polimetilmetacrilato con elevato spessore.
Si utilizza la maschera con la geometria desiderata e si fa l’esposizione ai raggi X con elevata
energia, in modo che riescano a incidere tutta la profondità del resist.
Una volta che il resist è stato irraggiato, utilizzando la maschera, si ha lo sviluppo, quindi una parte
del resist sarà rimossa (questa è la parte di litografia classica).
In questo caso, a questo step si aggiunge lo step di elettrodeposizione, quindi un materiale è
depositato all’interno della geometria del resist.
A questo punto si rimuove il resist (il resist, quindi, in questo caso non è stato fatto per incidere e
disegnare il substrato, ma è stato utilizzato come stampo per l’elettrodeposizione).
Una volta che è stato riempito con un metallo, il resist viene rimosso e abbiamo la struttura
metallica, che sarà poi in alcuni casi un dispositivo, ma nella maggior parte dei casi uno stampo che
verrà utilizzato per realizzare e lavorare prodotti di materiali polimerici.
A questo punto possiamo procedere alla fase di stampaggio, che può essere effettuata per
compressione (hot embossing), oppure tramite injection molding.
Stampaggio per compressione
Si prende uno strato di materiale polimerico, su cui deve essere trasferita la geometria, e questo
strato polimerico viene scaldato sopra la sua temperatura di transizione vetrosa, quindi sopra la
sua Tg. Sopra la Tg il materiale polimerico rammollisce e, a questo punto, viene compresso tra lo
stampo e un altro supporto che serve proprio per dare la pressione necessaria al fine di trasferire il
pattern dello stampo al substrato polimerico.
14
Comunale/Galbo
Lezione 25 Bionanotecnologie (Boffito)
28/04/2022
Dopo un certo tempo di contatto, il sistema viene raffreddato, ottenendo una temperatura sotto
la Tg del polimero, il quale viene staccato e rimosso dal sistema.
Il nostro stampo, in questo schema, è quello indicato con IMT.
Il film polimerico viene posto tra lo stampo e un altro substrato, che serve a dare la pressione
necessaria al materiale.
Il sistema viene scaldato, al fine di superare la temperatura di transizione vetrosa del polimero ma
non si arriva alla fusione, si lascia a contatto per un determinato tempo, in cui lo stampo viene
trasportato sul materiale polimerico, si abbassa di nuovo la temperatura, al fine di arrivare al di
sotto della temperatura di transizione vetrosa, quindi il materiale si indurisce e poi viene tolto
dallo stampo.
Questo processo può essere ripetuto n volte.
Quindi noi abbiamo ottenuto uno stampo con la tecnica litografica però ad altissima risoluzione,
anche con costi molto alti, però poi questo stampo può essere utilizzato n volte per riportare quel
pattern su substrati polimerici.
Injection molding
L’altro sistema con cui può essere realizzato lo stampo è l’injection molding. In questo caso,
invece, il materiale viene fuso, quindi viene portato al di sopra della temperatura di fusione e
viene iniettato, attraverso un sistema che può essere meccanico o a iniezione, all’interno dello
stampo che, a sua volta, è stato riscaldato. Lo stampo viene riscaldato per evitare shock termici e,
quindi, difetti poi nella fase di stampaggio.
Viene iniettato con velocità e pressione costante; una volta che ha riempito la cavità dello stampo,
viene fatto raffreddare, quindi il materiale viene riportato a temperatura ambiente lentamente, e
poi viene rimosso dallo stampo.
Questa è un'altra tecnica sempre per produrre stampaggi di materie plastiche, in cui possono
essere utilizzati gli stampi visti prima.
Riassumendo, cosa cambia nella litografia a raggi X rispetto alla fotolitografia? Cambia la
radiazione, quindi cambiano i materiali sia del resist sia i materiali con cui vengono fatte le
maschere; la litografia è una tecnica che permette risoluzioni maggiori rispetto alla tecnica
fotolitografica classica.
15
Comunale/Galbo
Lezione 25 Bionanotecnologie (Boffito)
28/04/2022
Adesso vediamo le due tecniche che utilizzano delle particelle cariche, quindi elettroni o ioni.
Per prima cosa, quando parliamo di queste tecniche andiamo a definire due diversi modi con cui si
può lavorare: si può fare il direct writing o il projection system e questi due sistemi valgono sia per
la litografia a fascio di elettroni sia per la litografia a fascio di ioni.
Cosa succede nei sistemi di direct writing? La geometria, che viene inizialmente disegnata con un
sistema CAD, viene direttamente convertita dal fascio alla resist senza l’uso di maschere; in realtà
la maschera viene chiamata “maschera software” perché partendo dal sistema CAD, il fascio di
particelle cariche andrà a colpire in determinate posizioni il resist, in funzione del disegno
originale.
Quindi, abbiamo comunque la trasposizione del disegno che vogliamo ma senza l’utilizzo di una
maschera fisica.
In questo caso, più piccola è la dimensione del fascio di particelle cariche, più aumenteremo la
risoluzione ma più aumenteremo i tempi di processo; quindi immaginate il fascio che colpisce solo
in determinate zone, a seconda del disegno CAD iniziale, il resist. Quindi, la risoluzione è dettata
dalla dimensione del fascio: più il fascio è piccolo e più otteniamo risoluzioni alte però si
aumentano i tempi di produzione perché si impiega più tempo a scansionare il campione, cioè il
substrato.
Invece, i projection system sono la litografia che abbiamo già visto; quindi, anche in questo caso, si
utilizza una maschera. Si fa un fascio ampio di particelle cariche che inondano la maschera: una
parte della maschera farà passare le particelle, una parte invece no e quindi abbiamo le particelle
che colpiscono il resist solo in determinate parti.
Quindi il projection system è quello a cui siamo abituati e che abbiamo visto fin’ora; il direct
writing è quello che non utilizza una maschera fisica ma quella che viene definita maschera
software, quindi trasferisce il disegno semplicemente movimentando il CAD.
LITOGRAFIA A FASCIO DI ELETTRONI
È la tecnica che abbiamo visto utilizzare per la realizzazione delle maschere con la litografia a raggi
X e può essere utilizzata nei due sistemi; vedremo, però, principalmente che vengono utilizzate
con i sistemi di direct writing.
Questa tecnica litografica:
-Permette di creare pattern e geometrie estremamente precise utilizzando elettroni ad alta
energia; gli elettroni utilizzati hanno un’energia di circa 10-50 keV.
-Possiede un’elevatissima risoluzione, fino a 3-5 nm; bisogna ricordare che nella litografia classica,
senza l’utilizzo dell’UV a più piccole lunghezze d’onda, si ottiene una risoluzione di 100 nm, quindi
adesso siamo scesi di 2 ordini di grandezza;
-È un’implementazione del microscopio a scansione elettronica (SEM)*;
-Sfrutta un fascio di elettroni che può essere focalizzato fino ad alcuni nanometri di diametro, quindi si può
ottenere il diametro del fascio di elettroni che è dell’ordine di qualche nanometro, che determina poi la
risoluzione della tecnica.
*Il microscopio a scansione elettronica è quel microscopio che sfrutta un fascio di elettroni per
andare a creare un’immagine tridimensionale del campione con ingrandimenti maggiori rispetto al
microscopio ottico. Viene generato un fascio di elettroni scaldando, ad esempio, un filo metallico
come il tungsteno e questo fascio di elettroni viene convogliato, utilizzando una serie di lenti, sul
16
Comunale/Galbo
Lezione 25 Bionanotecnologie (Boffito)
28/04/2022
campione; una volta che il fascio di elettroni colpisce il substrato da osservare, si formano una
serie di particelle, tra cui gli elettroni secondari che sono le particelle che vengono raccolte dal
detettore, le quali servono per realizzare l’immagine. Le immagini del SEM sono immagini in scale
di grigio con ingrandimenti molto alti, si ottengono anche ingrandimenti alti, con un campo di
profondità maggiore rispetto all’ottico, quindi ci dà anche un’idea della struttura tridimensionale
del campione. Partendo dal microscopio a scansione elettronica, che produce un fascio di
elettroni, è stata implementata poi la tecnica litografica a fascio di elettroni.
Passaggi con il direct writing, senza utilizzare la maschera:
• Pulizia con ultrasuoni e alcol isopropilico del substrato di silicio
• i resist che vanno bene per la litografia a raggi X vanno bene anche per la litografia a fascio di
elettroni; quindi, anche in questo caso viene deposto uno strato di resist sul substrato (le tecniche
con cui si depongono i resist sono sempre le stesse viste precedentemente);
• Disegno della geometria usando un fascio elettronico guidato da un software, quindi la
geometria è direttamente disegnata dal fascio; in questo caso non è un fascio largo che va ad
incidere su una maschera ma è il fascio che disegna direttamente la geometria sul resist;
• Sviluppo del resist perché l’impatto con il fascio di elettroni comporta una modifica del resist e
con lo sviluppo verranno eliminate o le parti che sono state impattate dagli elettroni o le altre;
• Deposizione di un sottile strato di oro (o altro materiale) sul substrato, quindi si ha il resist che è
presente solo in alcune zone del substrato (si deposita l’oro e si toglie il resist) e quello che si
ottiene è un pattern definito; in particolare si ottiene oro sullo strato di silicio.
Come funziona la scansione del fascio sul resist?
Ci sono due modalità:
-Si può fare la modalità raster scanning, in cui il fascio di elettroni scansiona tutto il substrato e
viene schermato nelle zone in cui non deve colpire il substrato.
Quindi, in realtà, il fascio scansiona tutto il substrato; all’interno dello strumento per litografia del
fascio di elettroni e anche del SEM esistono delle aperture che si possono aprire o chiudere per
deviare o meno il fascio, quindi per avere il fascio effettivamente presente o no sul campione.
Quindi, nel raster scanning, abbiamo il fascio che attraversa tutto il campione e in alcune parti
viene schermato.
-Nel vector scanning, invece, il fascio di elettroni viene movimentato seguendo la geometria. In
questo caso si ha un tempo inferiore perché il fascio impatta solo nelle zone richieste dalla
geometria e, quindi, si diminuiscono i tempi di produzione.
17
Comunale/Galbo
Lezione 25 Bionanotecnologie (Boffito)
28/04/2022
Questi due sistemi servono a realizzare il disegno sul resist con il fascio.
Questo è come si sviluppa un sistema per fare litografia a fascio di elettroni ma anche per fare
imaging, quindi utilizzare un microscopio a scansione elettronica.
Quindi si ha un sistema per la generazione del fascio, il quale, una volta generato, attraverso una
serie di condensatori e lenti, viene convogliato alla maschera, che poi lo convoglia direttamente
sul campione. La maschera è fatta di piccoli fori, quindi permette di accendere o spegnere il fascio.
Il discorso sul resist è molto simile a quello del resist per la litografia a raggi X quindi, quando il
fascio elettronico bombarda il polimero, vengono rotti i legami; tendenzialmente qualunque
polimero potrebbe andar bene ma nella pratica, anche in questo caso, si utilizza, a causa delle
varie richieste (sensibilità, risoluzione e resistenza a latching) il PMMA (Polimetilmetacrilato); in
questo caso è un resist positivo perché viene danneggiato, indebolito, rotto una volta esposto agli
elettroni.
Esistono anche dei resist negativi che sono tendenzialmente delle resine fenoliche; uno dei nomi
commerciali dei i resist negativi per il fascio di elettroni è il SAL601; queste resina hanno una
migliore resistenza al latching rispetto al Polimetilmetacrilato.
Bisogna ricordare che il PMMA è il resist positivo maggiormente utilizzato sia in litografia a raggi X
che in litografia a fascio di elettroni; in questo caso esistono anche delle resine fenoliche che,
invece, agiscono da resist negativi, quindi si rafforzano una volta che il fascio di elettroni colpisce
la superfice del resist.
Applicazioni:
- Industria nanoelettronica
- Realizzazione di pattern ad elevata risoluzione
- Fabbricazione di maschere
Vantaggi:
- Come nel caso della litografia a raggi X, elimina i problemi di diffrazione dovuti all’impiego di uv;
quindi si possono eliminare le maschere fisiche
- Preciso controllo dell’energia trasferita al substrato
- Alte risoluzioni (alcuni nm)
- Meno difetti
- Tecnica flessibile
18
Comunale/Galbo
Lezione 25 Bionanotecnologie (Boffito)
28/04/2022
Svantaggi:
- Lentezza della procedura ( se pensiamo ai volumi di produzione si parla di circa 5 wafer/ora)
- Costosa e complicata
- Problemi di scattering (difficoltà nella focalizzazione del fascio elettronico)
- Necessità di lavorare in vuoto (condizione che richiedono questo tipo di tecniche e anche quella
successiva)
- Generazione di elettroni secondari, i quali possono andare a modificare la geometria del
dispositivo in fase di sviluppo e questo è chiamato proximity effect (effetto di prossimità): il fascio
di elettroni colpisce il campione ma quando il fascio di elettroni colpisce un altro materiale si
producono una serie di particelle, tra cui gli elettroni secondari, che diffondono all’interno del
substrato del materiale in cui è stato fatto collimare il fascio di elettroni; questi elettroni secondari
possono andare a cambiare la reattività del resist alla soluzione di sviluppo.
Quindi, è possibile ottenere effetti di questo genere:
Se gli elettroni che hanno inciso per formare questa struttura hanno creato degli elettroni
secondari, questi possono aver avuto effetto sul resist intorno, cambiando leggermente le
proprietà fisiche del resist e, quindi, cambiando un po' la morfologia nello sviluppo, ottenendo
questi difetti.
Quindi, la morfologia delle strutture, dopo lo sviluppo, sono leggermente diverse rispetto a quelle
ipotizzate nella geometria iniziale.
Questo è uno dei principali difetti che presenta la litografia a fascio di elettroni.
Video:
https://www.youtube.com/watch?v=25AsHRgBJDM
The construction process begins with the circuit design which is quite straightforward though a
computer interface.
Here we are demonstrating the design of 2 interdigital electrodes.
The whole circuit its 200 micro maters large with a gap between the electrodes of 500 nanometers.
19
Comunale/Galbo
Lezione 25 Bionanotecnologie (Boffito)
28/04/2022
Il processo di costruzione inizia con la progettazione del circuito, che è abbastanza semplice grazie
all'interfaccia di un computer.
Qui stiamo dimostrando la progettazione di 2 elettrodi interdigitali.
L'intero circuito è grande 200 micrometri con uno spazio tra gli elettrodi di 500 nanometri.
The circuit is made on a silicon plate; the first step is covering the silicon wafer with a thin layer of
polymer which monomer else's when exposed to the electron beam.
Il circuito è realizzato su una lastra di silicio;
il primo passo consiste nel ricoprire il wafer di silicio con un sottile strato di polimero che
costituisce il monomero quando esso è esposto al fascio di elettroni
20
Comunale/Galbo
Lezione 25 Bionanotecnologie (Boffito)
28/04/2022
(Questo è un classico spin coater che si può trovare in tantissimi laboratori di ricerca che lavorano
con polimeri sottili, con un costo di circa 20.000-25.000 €, quindi ha un prezzo decisamente
contenuto)
With the use of a spinner, a uniform thin coating of a hundred nanometers thickness can be
deposited over the silicon. The polymer is then hardened by baking it at 200 degrees centigrade.
Con l'uso di uno spinner, sul silicio può essere depositato un sottile rivestimento uniforme di cento
nanometri di spessore.
Il polimero viene quindi indurito cuocendolo a 200 gradi centigradi.
21
Comunale/Galbo
Lezione 25 Bionanotecnologie (Boffito)
28/04/2022
When the wafer is prepared it is inserted into the electron microscope where the circuit is drawn.
The electron beam precisely follows the design of the circuit and only a radiates the previously
defined parts of the wafer where the electrodes will be.
Quando il wafer è preparato viene inserito nel microscopio elettronico dove viene disegnato il
circuito.
Il fascio di elettroni segue esattamente il disegno del circuito e irradia solo le parti
precedentemente definite del wafer dove ci saranno gli elettrodi.
When we take out of the microscope we put into a solvent to develop it. The solvent has chosen
only to dissolve and remove the part of the polymer which were irradiated by the electron beam
and leave the rest of the polymer film intact. After the wafer is cleaned it is ready to move to the
next stage metal deposition.
Quando lo estraiamo dal microscopio, lo mettiamo in un solvente affinchè si sviluppi.
22
Comunale/Galbo
Lezione 25 Bionanotecnologie (Boffito)
28/04/2022
Il solvente dissolve e rimuove solo la parte del polimero che era stata irradiata dal fascio di
elettroni e lascia intatto il resto del film polimerico.
Dopo che il wafer è stato pulito, è pronto per passare alla fase successiva di deposizione del
metallo
The wafer is placed into the sputter; this device sputters the metal over the whole surface on the
part where the circuit was drawn.
In the film dissolved the metal can stick directly to the silicon while everywhere else there is still a
polymer film between the metal and the wafer.
La cialda viene posta nello sputter:
(Lo sputter viene utilizzato anche per rivestire i campioni polimerici che devono essere visti al
SEM; quando vogliamo vedere al microscopio elettronico un materiale polimerico, poiché i
campioni devono essere conduttivi e i materiali polimerici non lo sono, si utilizza uno spatter
simile. Quindi, si riveste tutto il campione con del metallo (si possono usare diversi metalli), così il
campione può essere visto con più facilità e si possono ottenere ingrandimenti maggiori al SEM)
Questo dispositivo spruzza il metallo su tutta la superficie in cui è stato disegnato il circuito.
Nella pellicola disciolta il metallo può attaccarsi direttamente al silicio mentre dappertutto c'è
ancora una pellicola polimerica tra il metallo e il wafer.
23
Comunale/Galbo
Lezione 25 Bionanotecnologie (Boffito)
28/04/2022
The final step is removing all of remaining polymer together with the unwanted metal.
The wafer is put into a different solvent which dissolves the polymer.
The metal on the polymer also floats off while the matal that is directy on the silicon wafer stays
intact and the result are two very small and precise electrons.
Il passaggio finale consiste nella rimozione di tutto il polimero rimanente insieme al metallo
indesiderato.
Il wafer viene messo in un solvente diverso che dissolve il polimero.
Anche il metallo sul polimero galleggia mentre il materiale che si trova direttamente sul wafer di
silicio rimane intatto e il risultato sono due elettroni molto piccoli e precisi
L’unica cosa che cambia, rispetto ai passaggi visti prima, è che non si utilizza una maschera fisica
ma il pattern viene direttamente trasferito utilizzando il fascio di elettroni.
24
Comunale/Galbo
Lezione 25 Bionanotecnologie (Boffito)
28/04/2022
LITOGRAFIA A FASCIO DI IONI (FIB)
Anche questa tecnica utilizza particelle cariche; in questo caso non sono utilizzati elettroni ma ioni.
È molto simile alla tecnica vista precedentemente; anche in questo caso si possono utilizzare due
metodi, sia il direct writing che project system e, anche in questo caso, è maggiormente utilizzato
il direct writing.
In realtà, questa tecnica viene utilizzata per tre grandi applicazioni:
-per fare il processo che viene definito milling o incisione del substrato, quindi sputtering, cioè
eliminazione del materiale, senza la possibilità di utilizzare il resist;
-si può fare imaging; infatti, come il fascio di elettroni, anche il fascio di ioni può essere utilizzato
per fare imaging;
-per la deposizione di materiali; ad esempio, con le tecniche litografiche a fascio di ioni si
producono le punte per il microscopio a forma atomico (AFM) (punta che ha un diametro a livello
nanometrico).
Caratteristiche della litografia a fasci di elettroni:
• È una tecnica litografica che utilizza un fascio di ioni ad alta energia
• L’energia degli ioni incidenti può variare tra qualche keV fino a decine di MeV
• Anche in questo caso, come nel caso della litografia a fasci di elettroni, si ha la necessità di realizzare un
ambiente a vuoto, quindi la generazione di un vuoto spinto
• Come la tecnica precedente, è maggiormente utilizzata senza l’impiego di una maschera fisica
• Può essere utilizzata o con il solito modo, cioè andando a colpire con il fascio di elettroni il resist o può
essere utilizzata per fare un’azione di sputtern, quindi incisone, direttamente sul substrato (quindi, con
questa tecnica si potrebbero eliminare delle procedure che abbiamo visto nei processi litografici
precedenti)
• Tra tutte le tecniche litografiche è quella che permette di raggiungere la maggiore risoluzione; la cosa
positiva del fascio di ioni è che produce particelle secondarie che hanno una carica inferiore rispetto a
quelle prodotte dal fascio di elettroni quindi si hanno meno effetti indesiderati e si ottengono risoluzioni
migliori rispetto a quelle ottenute con il fascio di elettroni
• Gli ioni hanno lunghezze d’onda più piccole perciò i fenomeni di diffrazione sono quasi nulli e i fenomeni
di scattering, cioè produzione di particelle una volta che gli ioni colpiscono il substrato, molto meno
importanti rispetto alla litografia con fascio elettronico
• Il resist può essere il PMMA, come nella litografia a raggi X e litografia a fasci di elettroni, o altri materiali
sensibili all’assorbimento di ioni
• L’applicazione più importante di questa tecnica è nella riparazione di maschere per litografia realizzate
mediante altre tecniche oppure per realizzare direttamente strutture tridimensionali, nel caso in cui venga
utilizzato non il resist ma l’incisione direttamente sul substrato.
Per la generazione di ioni si utilizzano tipicamente sorgenti a metallo liquido, quindi un metallo che sia
liquido a temperature vicine a quelle ambientali; le sorgenti di ioni maggiormente utilizzate sono il Gallio,
Indio e Oro (soprattutto il Gallio, il quale è liquido a circa 30°).
Si possono utilizzare materiali dopanti e gli ioni sono molto più reattivi degli elettroni: il loro impatto
contro la superficie può essere sfruttato per modificare la superficie stessa l’elettrone ha una quantità di
moto inferiore rispetto ad uno ione, quindi quando colpisce gli atomi del substrato, non crea grossi
25
Comunale/Galbo
Lezione 25 Bionanotecnologie (Boffito)
28/04/2022
movimenti; nel caso dello ione, invece, una volta che impatta ad alta energia sul substrato, scalza l’atomo
dal substrato, rimuovendo così il materiale direttamente dal substrato. Questo è il motivo per il quale si
utilizza per fare una lavorazione diretta, senza l’utilizzo del resist. Oltre ad essere utilizzato come sputter,
quindi per incidere direttamente il materiale, può essere utilizzato per deporre materiale sul substrato.
Queste sono due rappresentazioni di come, attraverso la stessa tecnica litografica, si può andare ad
incidere il substrato, andando a scalzare gli atomi direttamente dal substrato, o si può andare a depositare
del materiale direttamente sul substrato, ottenendo delle strutture tridimensionali.
Formazione fascio di ioni:
solitamente si usa il Gallio, che è un metallo liquido, alla temperatura di circa 29° (temperatura alla quale il
Gallio è liquido) e si imposta una differenza di potenziale; si forma il cono di Taylor o getto di cono e alla
fine si ha la rottura dei legami del Gallio e la formazione degli atomi.
Il diametro del fascio di ioni, generato con questa tecnica, può raggiungere i 50 nm fino a scendere a 4-8
nm.
Questo, invece, è lo schema di come è composto lo strumento della litografia a fascio di ioni:
abbiamo la sorgente di ioni, che è il Gallio che viene sottoposto a temperatura o a tensione, si forma il cono
di Taylor, arriva un’energia tale rompere i legami del Gallio e avviene la formazione.
Lo strumento, quindi, è composto dalla sorgente di ioni, l’estrattore degli ioni e poi ci sono una serie di
aperture e lenti che servono per convogliare il fascio di ioni ad alta energia sul campione.
La risoluzione della tecnica litografica è determinata dalla corrente: più alta è la corrente, più abbiamo un
fascio grande e più la risoluzione è bassa però abbiamo tempi di produzione maggiori.
26
Comunale/Galbo
Lezione 25 Bionanotecnologie (Boffito)
28/04/2022
Aumenta la correnteAumenta la dimensione del fasciodiminuisce la risoluzionediminuisce il tempo
di processamento.
Se vogliamo avere risoluzioni più alte, dovremmo abbassare la corrente ma aumenterebbe il tempo di
produzione.
Cosa succede quando le particelle cariche vanno a collimare sul materiale?
MICROMACHING: In caso di elettroni, la massa dell’elettrone è inferiore rispetto alla massa degli
atomi del substrato, quindi in realtà non ha effetto se non quello di creare tutte quelle serie di
particelle tra cui gli elettroni secondari.
Nel caso dello ione metallico, la massa dello ione metallico è comparabile con la massa dell’atomo
del substrato che si va a incidere. Quindi, durante l’impatto si ha un grande trasferimento di
quantità di moto dallo ione agli atomi del substrato. Questa energia che viene ceduta può
rimuovere gli atomi dal substrato. Ricordiamoci che queste procedure vengono fatte a vuoto,
quindi gli atomi rimossi vengono rimossi direttamente dalla camera del sistema grazie al vuoto che
è generato all’interno della camera.
Quindi, utilizzando il fascio di ioni, riusciamo non solo a modificare le caratteristiche fisicochimiche del resist, come avveniva con il fascio di elettroni, ma riusciamo anche ad andare a
modificare direttamente il substrato, quindi andare a fare il processo che viene definito Milling o
Spattering direttamente sul substrato.
SPUTTERING: proprio per la sua capacità di sputtering, la tecnica FIB viene utilizzata non solo per
la produzione di strutture tridimensionali, ma è anche utilizzata come processo di finitura di
macchine utensili micrometriche. Quindi viene realizzato un sistema con altre tecniche, ma per
migliorare la risoluzione superficiale del sistema si può utilizzare la tecnica del FIB.
Man mano che il fascio colpisce il substrato, grazie al fatto che la massa degli ioni è paragonabile
alla massa del substrato, gli atomi del substrato vengono rimossi dall’energia ceduta dall’impatto;
vengono poi asportati dal substrato e si ha proprio la produzione di un’incisione sul substrato. Può
anche essere considerata in qualche modo una tecnica di produzione tridimensionale
(prototipazione rapida).
27
Comunale/Galbo
Lezione 25 Bionanotecnologie (Boffito)
28/04/2022
MILLING: Processo continuo che avviene quando il materiale è esposto al fascio di elettroni, ed è
causato proprio dalla collisione degli ioni del fascio con gli atomi del substrato.
La velocità è linearmente proporzionale alla corrente, quindi se utilizziamo corrente alta avremo
velocità di produzione maggiore, andando però a discapito della risoluzione e viceversa.
Si ha, quindi, comunque un controllo molto preciso, perché quando si parla di risoluzioni più
grandi si parla di fasci da 50 nm fino a 4-5nm.
La velocità tipica della rimozione in 10 minuti è 10 x 5 x 3 μm
28
Galazzo/Serio
26 Bionanotecnologie (Carmagnola)
29/04/2022
Litografia a fascio di ioni (FIB)
La tecnica litografica affrontata durante l’ultima lezione è la litografia a fascio di ioni, che utilizza
un fascio di ioni per incidere il substrato. Questa tecnica ha molte similitudini con l'altra tecnica
che utilizza particelle cariche, ovvero la tecnica litografica a fascio di elettroni. In realtà, la
litografia a fascio di ioni permette di fare più operazioni:
-
-
si utilizza nella condizione di direct writing (andando a collimare direttamente sul
substrato);
si può fare litografia classica, quindi utilizzando il resist;
si può fare sputtering o milling, ovvero asportazione direttamente del materiale dal
substrato, questo perché gli ioni hanno una massa maggiore degli elettroni, quindi quando
colpiscono con alta energia il substrato trasferiscono una quantità di moto tale da
permettere agli atomi più superficiali di essere scalzati dal substrato e vengono quindi
rimossi. Con questa tecnica si può andare direttamente a incidere il substrato;
si può fare imaging;
si può anche depositare materiale sul substrato: si può non solo incidere, ma anche
aggiungere materiale al substrato.
Milling
Il processo di milling, ovvero il processo di asportazione
direttamente operato dal fascio di ioni su un substrato
senza passare dal resist, è causato dalla collisione del
fascio direttamente sul substrato. La velocità con cui si
asporta il materiale è direttamente collegata alla
grandezza del fascio ionico e quindi alla corrente. Più
alta è la corrente, più il fascio ionico è grande, ma se la
velocità di asportazione del materiale aumenta si perde
in risoluzione. Con correnti basse, e quindi fasci piccoli, si
ottiene un’alta risoluzione, ma tempi di lavorazione molto lunghi.
Il tempo di processo viene definito come volume di materiale asportato per tempo, micrometri
cubi per secondo (μm3/s). Per dare un’idea della velocità di asportazione, si impiegano circa 10
minuti per rimuovere un rettangolo con un’area di 10x5x3 μm.
Video: https://www.youtube.com/watch?v=sHOSRcf6svQ
Si tratta di un video accelerato che mostra come si va a incidere un substrato. Il fascio riesce ad
asportare direttamente il substrato, senza impattare sul resist, senza cambiarne le proprietà fisicochimiche.
1
Galazzo/Serio
26 Bionanotecnologie (Carmagnola)
29/04/2022
Imaging - microscopia
Col fascio di ioni si può fare anche imaging: in realtà, è molto
simile all’imaging ottenuto con il fascio di elettroni. Quando il
fascio di ioni viene convogliato sul campione da analizzare,
reagisce con gli atomi del campione, si producono particelle
che possono essere rilevate dai detector per ottenere
l’immagine oppure possono essere rilevate per ottenere
un’informazione sulla composizione chimica superficiale.
È possibile ottenerla anche con il SEM: se dotato di specifici
detector, riesce anche a dare un’idea della composizione
superficiale. Si tratta di un’analisi meno fine rispetto all’XPS,
ma dà un’idea qualitativa della composizione chimica del
materiale che si sta analizzando.
Per realizzare l’immagine vengono utilizzati elettroni secondari (come nel SEM) e gli ioni secondari
che vengono prodotti. In basso, degli esempi di immagini ottenute tramite fascio di ioni per
imaging. Le prime due immagini sono ad alta risoluzione (la barra di ingrandimento è sui 100 nm),
invece la terza immagine è più definita, la parte chiara è relativa al silicio, quella scura al materiale
isolante.
Focused-ion-beam chemical-vapor-deposition (FIB-CVD)
Come è possibile depositare materiale attraverso il fascio
ionico? La tecnica che viene utilizzata combina il fascio ionico
con la deposizione chimica a vapore nello stesso strumento.
Gli strumenti che permettono di eseguire questi processi
sono equipaggiati in questa maniera:
-
parte che rilascia il fascio ionico;
parte relativa al SEM;
dispositivo che permette di andare a inserire il
precursore di un gas.
L’aggiunta di un sistema per l’inserimento del precursore del gas nella camera permette di
eseguire più operazioni e di migliorare alcune operazioni. All’interno del sistema di FIB è inserito
un sistema che inietta un gas, o meglio, un precursore di un gas. Con l’aggiunta di questa fase
2
Galazzo/Serio
26 Bionanotecnologie (Carmagnola)
29/04/2022
gassosa si può migliorare l’efficacia dell’etching, si può fare un etching selettivo (cioè si possono
asportare solo determinati tipi di materiale, nel caso invece del FIB classico questa cosa non è
possibile). Se non è presente il gas non si può fare deposizione di materiale sulla superficie.
1. Si migliora l’etching
velocizzandolo, il fascio ionico
attiva la reazione tra il gas
presente in camera e il materiale
che si deve asportare, si migliora
così l’asportazione di materiale dal
substrato.
2. Selezionando determinati tipi di
gas si può ottenere etching
selettivo: ad esempio, se si usa
come gas il difluoruro di xeno, si
promuove l’etching di materiali come il silicio; invece, inserendo nella camera il gas di iodio
si promuove l’etching di soli metalli; nel caso in cui si aggiunga vapore acqueo, si migliora e
promuove etching di materiali organici, come i polimeri. Quindi, se all’interno del sistema si
ha un materiale composto da polimero e da metallo e si vuole eseguire solo l’etching del
metallo o solo del polimero, si può fare in modo selettivo inserendo nel sistema un gas
opportuno.
3. Deposizione di materiali: si ha sempre il sistema che rilascia il precursore del gas che
convogliato verso la superficie del substrato. Sulla superficie viene anche focalizzato il
fascio di ioni. Il fascio di ioni decompone i precursori del gas, facendo sì che una parte degli
atomi di interesse vengano effettivamente deposti sulla superficie, mentre il resto degli
elementi della reazione sono prodotti volatili. I prodotti volatili vengono lasciati in camera
e esportati grazie al vuoto presente in camera. In
questo modo il materiale si deposita selettivamente
sulla superficie secondo determinate geometrie. Si
possono usare precursori metallici o ceramici, ma la
qualità del materiale deposto però non è ottimale,
ci sono impurità dovute alla presenza di elementi
rimasti dal precursore del gas o materiali del
substrato che possono essere inglobati nel
materiale che si sta depositando. Si tratta di un
processo molto lento in generale.
Nanomanipolatori
Il sistema FIB può essere unito al SEM: il fascio ionico crea il
substrato (o incide o addiziona materiale sul substrato), il SEM
permette di ottenere imaging in tempo reale di quello che sta
succedendo sul campione. In questi strumenti il sistema di SEM e
fascio ionico sono posizionati a una determinata angolatura, viene
3
Galazzo/Serio
26 Bionanotecnologie (Carmagnola)
29/04/2022
posizionato il campione e i fasci si focalizzano su un unico punto del campione, facendo
contemporaneamente imaging e asportazione o deposizione di materiale. Questi sistemi
combinati vengono chiamati nanomanipolatori e permettono di fare più operazioni
contemporaneamente sul campione.
Video: https://www.youtube.com/watch?v=uXJI5GmdGCw
I sistemi di manipolazione prevedono anche strumenti per spostare e muovere oggetti dentro la
camera.
Da qui in poi si vedranno tecniche litografiche non classiche, ma molto simili alle precedenti, che
hanno subito lievi modifiche. Si ricordi che se si vogliono grandi volumi di produzione le tecniche
migliori sono quelle che hanno una risoluzione inferiore e viceversa.
Nanoimprinting (NIL)
Sono tecniche di due diversi tipi che utilizzano non un fascio di particelle cariche, ma uno stampo
per a disegnare il resist. Si tratta di uno stampo rigido ottenuto precedentemente con le tecniche
litografiche che trattate fino ad ora. Sono state introdotte negli anni ’90 al fine di andare a
superare i limiti di risoluzione tipici della fotolitografia UV, che ha le risoluzioni peggiori, però si
voleva mantenere alto il volume di produzione. È stato pensato di utilizzare, per incidere il resist,
uno stampo rigido.
Si parte dal substrato e si riveste con il restist; lo
stampo rigido viene depositato sul resist; si
aumenta la temperatura per superare la
temperatura di transizione vetrosa del polimero;
il resist rammollisce e si imprime la geometria
dello stampo sul resist: si avranno zone con
resist più alto e più basso. A questo punto si è
nella stessa condizione in cui si era alla fine dello
sviluppo della litografia tradizionale.
4
Galazzo/Serio
26 Bionanotecnologie (Carmagnola)
29/04/2022
Ora si può scegliere di fare etching, quindi lavorazione sottrattiva
(come nelle immagini in alto), oppure possiamo andare a depositare
del nuovo materiale nel caso in cui la lavorazione preveda di
aggiungere nuovo materiale al substrato (immagini a destra). In
questo secondo caso, le fasi da seguire sono le stesse elencate
prima; eventualmente, si può fare un passaggio per eliminare il
sottile strato di resist nelle zone in cui non dovrebbe esserci e poi si
procede alla deposizione del nuovo materiale su tutto il substrato,
poi il resist viene eliminato nella fase di lift-off e quindi si ritorna
nella stessa condizione già affrontata nelle scorse lezioni.
Il vantaggio è che lo stampo può essere utilizzato più volte e si ottengono risoluzioni migliori
rispetto alla fotolitografia tradizionale. Teoricamente la risoluzione che si ottiene dovrebbe essere
uguale alla risoluzione del primo stampo ottenuto tramite tecnica litografica classica. In questo
caso lo stampo deve avere un rapporto dimensionale 1:1 rispetto all’immagine che si vuole
riportare sul substrato (analogia con la maschera in contatto o in prossimità nel caso di
fotolitografia tradizionale).
Nanoimprinting step and flash litography
L’altra tecnica di nanoimprinting si chiama nanoimprinting step and flash litography. La differenza
è che in questo caso non si sfrutta lo stampaggio a compressione per incidere il resist, ma lo
stampo che si utilizza è trasparente a raggi UV; il resist è un polimero fotosensibile, cioè
polimerizza se interagisce con la radiazione UV, è liquido, ha poca viscosità. Dunque si ha: il
substrato; il materiale che deve essere disegnato; il resist o una protezione; la maschera è rigida e
trasparente ai raggi UV ed è spesso rivestita con uno strato che ne consente la corretta rimozione
(senza strappare il materiale sottostante).
Si appoggia delicatamente lo stampo sul materiale sensibile agli UV e si irraggia; il materiale
sensibile agli UV polimerizza e assume la forma dello stampo; si toglie lo stampo e a questo punto
si possono fare le varie lavorazioni (o etching o deposizione). Nel caso in figura in alto si fa etching
(viene eliminato solo il materiale nello strato non rivestito dal resist), viene tolto il resist e si
ottiene la nanotopografia sul materiale fucsia. Si riescono a ottenere geometrie di dimensioni di
qualche decina di nanometri (risoluzione migliore rispetto alla litografia classica).
5
Galazzo/Serio
26 Bionanotecnologie (Carmagnola)
29/04/2022
Nel caso in cui si voglia fare etching del substrato, si può non usare il
transfer layer. Si riescono a ottenere geometrie con alcune decine di
nm, dimensioni molto più piccole rispetto alla fotolitografia
tradizionale.
Confronto tra nanoimprinting ad alta temperatura e
nanoimprinting step and flash. La differenza principale è che
nel secondo caso la maschera deve essere trasparente ai
raggi UV e la risoluzione viene determinata dalla risoluzione
della maschera rigida, ottenuta con le tecniche litografiche
viste. Anche in questo caso, il rapporto è 1:1.
Esempi di immagini ottenute al microscopio di strutture
ottenute con nanoimprining. Nell’immagine in alto a destra,
le strutture circolari hanno diametro di poco più di 100 nm.
Nell’immagine in basso a destra, le scanalature hanno
larghezza di circa 100 nm.
Litografia a due fotoni
Questa tecnica verrà solo accennata. Ha prestazioni davvero buone dal punto di vista della
risoluzione e perché permette la costruzione di oggetti 3D di forme complesse. È una tecnica
litografica per direct writing e permette di ottenere strutture tridimensionali: si utilizza un resist
che polimerizza quando colpito da due fotoni, quindi si sfrutta il principio secondo cui la
probabilità che due fotoni vengono assorbiti nello stesso punto è proporzionale al quadrato
dell'intensità del fascio. Si utilizza un fascio laser, solitamente pulsato, che viene focalizzato sul
campione di resist. Rispetto alla dimensione del fascio l’energia è una curva gaussiana, quindi ha
maggiore intensità solo in una parte del fascio, la polimerizzazione avviene dove si supera un
valore soglia che permette l’assorbimento di due fotoni. Nelle altre tecniche, la risoluzione è
proporzionale alla lunghezza d’onda utilizzata; in questo caso, anche se si ha un fascio piccolo, solo
una piccola parte avrà intensità tale per cui assorbirà due fotoni e quindi promuovere la
polimerizzazione del resist. Dunque, si riesce a scendere al di sotto della lunghezza d’onda
utilizzata come risoluzione: questo
permette di ottenere strutture
tridimensionali molto complesse. Un
altro vantaggio è che permette di
avere una filtrazione maggiore dei
fotoni (profondità maggiore).
6
Galazzo/Serio
26 Bionanotecnologie (Carmagnola)
29/04/2022
Esempi di strutture realizzate con
questa tecnica.
Video: https://www.youtube.com/watch?v=mdup3w7DCZE&ab_channel=TUWienTV
Molto spesso questa tecnica viene inserita tra le tecniche di additive manufacturing.
È una tecnica usara per realizzare scaffold nell’ambito del tissue engineering. Ha un limite: esiste
un range limitato di materiali che si possono utilizzare.
Soft litography
È una tecnica simile al nanoimprinting: con uno stampo riporto una geometria. In questo caso lo
stampo è in materiale soft. Il materiale soft per eccellenza è il polidimetilsilossano (PDMS), anche
conosciuto come silicone. Quindi, per soft litography si intende una serie di tecniche alla base delle
quali c’è l’utilizzo di uno stampo soft siliconico. Lo
stampo in PDMS si ottiene a partire da un master
ottenuto con tecnica litografica. Con una tecnica
litografica classica si fa il master: si ha deposizione del
fotoresist, si decide quale esposizione fare e poi si
sviluppa e si crea il master; a partire da questo, per
ottenere lo stampo in PDMS si cola il silicone sullo
stampo, si fa polimerizzare e si ottiene lo stampo.
Si utilizza il silicone perché; è un materiale omogeneo, ha le stesse caratteristiche su tutto il
campione; è trasparente; è inerte; è flessibile; ha basso costo; si produce facilmente.
Esistono diversi tipi di silicone in commercio, solitamente quando si acquista un silicone si acquista
la base siliconica e l’iniziatore della polimerizzazione, dopodiché si segue una ‘ricetta’ che unisce
una certa quantità di base siliconica e di reticolante, si aspetta del tempo affinché la
polimerizzazione sia completa. Uno dei siliconi più utilizzati è il silica 184: si parte dai due composti
che si mettono in rapporto 10:1, poi si può far polimerizzare a temperatura per tempi brevi o a
temperatura ambiente per tempi più lunghi (circa 48 ore).
Questa tecnica trova vastissima applicazione nei sistemi di microfluidica (organ on chip) e nei
bioMEMS.
Come si ottiene lo stampo in PDMS? Si ha un precursore liquido del PDMS che viene unito
all’iniziatore della polimerizzazione, si unisce velocemente (prima che inizi la polimerizzazione e
che quindi il materiale diventi più rigido) e viene versato sul master in bassorilievo. Il master in
bassorilievo è un substrato con disegno in rilievo o inciso. A questo punto, si fa polimerizzare il
7
Galazzo/Serio
26 Bionanotecnologie (Carmagnola)
29/04/2022
silicone, che assume la stessa morfologia del master iniziale. Teoricamente, la risoluzione dello
stampo in silicone dovrebbe essere uguale a quella del master, ma in pratica subentra l’interazione
tra il silicone e il materiale di cui è fatto lo stampo e dal metodo che si utilizza per deporre
l’elastomero (ad esempio, se si versa solo, se si usa una pressione negativa per far aderire meglio,
ecc). Anche in questo caso, si ha un rapporto delle dimensioni 1:1.
Video: https://www.youtube.com/watch?v=lH-FCSxRvrU&ab_channel=QueenMaryMicrofluidics
Nel video, lo stampo è stato utilizzato direttamente per realizzare un sistema microfluidico.
Il silicone è il materiale gold standard: ha una bassa energia superficiale, è chimicamente inerte ma
si può modificare la superficie, non è igroscopico (non assorbe acqua), è permeabile ai gas, ha una
buona stabilità termica, è trasparente (ottimo per i sistemi di microfluidics), è isotropo, omeogeno
e durevole. Tutte le tecniche di soft litography si basano sullo stampo di silicone.
Esistono 3 tecniche di soft litography:
1. micromolding;
2. micro-replica molding;
3. micro contact printing.
8
Galazzo/Serio
26 Bionanotecnologie (Carmagnola)
29/04/2022
Micromolding
Questa tecnica consiste nel depositare un materiale polimerico nello stampo e di ottenere una
struttura polimerica che replica la morfologia dello stampo. Per inserire il materiale polimerico
nello stampo si possono utilizzare diverse tecniche:
-
-
-
casting del polimero: tecnica più semplice. Si va a colare la soluzione polimerica sullo
stampo e si elimina la soluzione in eccesso, si fa indurire il polimero facendo evaporare il
solvente o con un processo di reticolazione. Una volta indurito, si rimuove lo stampo e
quello che si ottiene è una struttura polimerica che replica lo stampo;
tecnica microfluidodinamica: lo stampo è posizionato su un substrato, di fianco viene
messo il liquido che viene inserito nelle cavità dello stampo applicando un vuoto (pressione
negativa), oppure sfruttando l’effetto capillare della soluzione polimerica all’interno delle
strutture dello stampo. Anche in questo caso si può far evaporare il solvente o indurire il
polimero. Si elimina lo stampo e si ottiene dunque il polimero che replica la morfologia
dello stampo;
spin coating: simile al primo, si va a deporre la soluzione del polimero sullo stampo e si
utilizza la velocità di rotazione per far sì che la soluzione penetri nella morfologia e nelle
strutture cave dello stampo, si fa indurire il polimero che replica lo stampo.
Lo stampo è appoggiato su un
substrato, viene messo il
liquido che va a riempire i
canali per effetto capillare e si
ottengono le strutture che si
vedono nelle immagini accanto.
9
Galazzo/Serio
26 Bionanotecnologie (Carmagnola)
29/04/2022
Micro-replica molding
Si utilizza questa tecnica quando si vuole ottenere uno stampo che sia il
negativo di un altro stampo. Lo stampo ottenuto viene poi utilizzato per creare
delle micro e nano strutture.
Si deposita il materiale elastomerico sullo stampo in silicone, si fa
polimerizzare e poi si rimuove. Al fine di evitare l’adesione tra i due stampi
(essendo dello stesso materiale), lo stampo in silicone viene trattato
superficialmente per creare un sottile strato non adesivo che permette la
rimozione del materiale elastomerico senza danni.
Esempio: l’obiettivo del lavoro era fare un pattern per l’adesione cellulare selettivo, cioè le cellule
dovevano rimanere confinate solo in alcune zone del dispositivo. Se il substrato è tutto uguale e
piace alle cellule, queste si distribuiscono ovunque. Si è creato un substrato in cui il pattern avesse
composizioni differenti, con zone di materiale che piacesse alle cellule e zone di materiale che non
piacesse alle cellule. I due materiali scelti sono stati il PEG (materiale anti adesivo e in generale
non adatto all’adesione cellulare) e la fibronectina (materiale scelto per favorire l’adesione).
Sul substrato è stato posto uno strato di PEG, poi lo stampo con la geometria desiderata (a canali).
È stato fatto un trattamento ad
ossigeno (etching al plasma di
ossigeno), che elimina il PEG
solo dove ci sono vuote nello
stampo; utilizzando sistemi di
iniezione, viene messa la
fibronectina all’interno dei vuoti
dello stampo. Quando si
rimuove lo stampo in silicone si
ottiene che in alcune zone ci
sarà il PEG, in altre la
fibronectina. Le cellule sono
state seminate e anche 5 giorni
riescono a mantenere la loro
deposizione.
Questo dà un’idea del fatto che si riescono ad ottenere degli stampi che possono portare alla
deposizione sul substrato finale anche di materiali molto diversi, con strutture complesse a livello
nanometrico.
10
Galazzo/Serio
26 Bionanotecnologie (Carmagnola)
29/04/2022
Micro-contact printing
In questo caso, lo stampo in silicone
ottenuto viene utilizzato come timbro.
Lo stampo di silicone è immerso in una
soluzione di una molecola: le molecole
sono o tioli o biomolecole (come
proteine).
Nell’esempio, l’obiettivo era lo
stampaggio su un substrato d’ oro in
modo selettivo, con una determinata
geometria, cioè immergendo il substrato
in una soluzione della molecola il SAM si
distribuisce in modo uniforme su tutta la
superficie. È stato preso il silicone
imbevuto nella soluzione contenente le
molecole e posto su un substrato con un
sottile strato d’oro.
Se si ha substrato planare e stampo planare si è nella condizione A: quindi, si mette lo stampo in
silicone nella soluzione “inchiostro”, si pressa sul substrato e le molecole vengono trasferite al
substrato; come nei timbri classici imbevuti in inchiostro, solo le molecole presenti sull’area del
timbro che si trova in rilievo verranno passate al substrato. Questo si può fare quando lo stampo è
planare e il substrato non è troppo grande.
Nel caso in cui si voglia rivestire un substrato più grande, si può utilizzare uno stampo rotante (B).
Esso è imbevuto, viene fatto ruotare sul substrato e si riesce a depositare l’inchiostro su aree
maggiori.
Si può anche fare uno stampaggio con substrato non planare: in questo caso è il substrato che
viene fatto rotolare e sullo stampo (C).
Guardando queste immagini in alto: si è imbevuto il silicone nelle molecole (in questo caso tioli), si
è appoggiato sul substrato in oro; vengono trasferite al substrato in oro solo le molecole presenti
sulle parte in rilievo dello stampo.
11
Galazzo/Serio
26 Bionanotecnologie (Carmagnola)
29/04/2022
Si ha un gruppo chiolato nel caso dell’oro, con code
carboniose e gruppi funzionali che possono essere
utilizzati proprio in quanto gruppi funzionali o per
ancorare altre molecole.
12
Sogos/Vecchio
27 Bionanotecnologie (Carmagnola)
04/05/2022
Riassunto lezioni precedenti
Le scorse volte sono state viste le varie tecniche litografiche:
- si è iniziato con la fotolitografia UV e si è visto che la risoluzione che si può ottenere dipende
dalla lunghezza d’onda e quindi come sono state introdotte altre tecniche litografiche al fine di
ottenere risoluzioni maggiori.
- sono state viste la litografia a raggi X e le due litografie che utilizzano particelle cariche, quella
che utilizza un fascio di elettroni e quella che utilizza un fascio di ioni. Per queste due tecniche
litografiche si è visto che è possibile andare ad incidere il substrato senza l’utilizzo di maschere
fisiche, ma andando a direzionare il fascio direttamente sul resist partendo dal disegno CAD.
- Si è visto che a queste tecniche litografiche si possono affiancare varie modifiche: ad esempio le
varie tecniche che permettono di printare attraverso una maschera, che può essere rigida nel caso
di tecniche di nanoimprinting o di materiale elastomerico nel caso della soft lithography. Il
concetto è di realizzare uno stampo che può essere utilizzato a sua volta per realizzare altri
prodotti con caratteristiche a livello nanometrico.
Le ultime tecniche che si vedranno rispetto a questa grande parte di tecniche litografiche sono
quelle che vengono chiamate scanning proximal probe lithography.
SCANNING PROXIMAL PROBE LITHOGRAPHY
Sono tecniche che utilizzano un probe (una sonda o comunque una punta nanometrica) che viene
posizionata molto vicina al substrato e possono essere utilizzate sia per fare imaging, sia per
andare a modificare direttamente il substrato. Per fare queste due operazioni si sfrutta proprio
l’interazione che la punta nanometrica ha con il materiale.
Si possono dividere in 3 categorie:
- tecniche di probe di prossimità: la principale è la Scanning Tunneling Microscope (STM),
permettono di generare un campo elettrico tra la punta e il campione. Caratteristiche di queste
tecniche è che sia la punta che il substrato devono essere conduttivi.
- metodi meccanici: sono la Scanning (o Atomic) Force Microscope (SFM/AFM, quindi microscopio
a forza atomica). In questo caso la punta interagisce meccanicamente con il campione.
- metodi ottici: la punta permette di esporre il resist ad un campo, quindi utilizzare la stessa
radiazione, ma in questo caso direttamente sul resist senza l’utilizzo di maschera e permette di
andare ad esporre aree molto piccole.
Si vedranno nel dettaglio le tecniche STM e AFM.
1
Sogos/Vecchio
27 Bionanotecnologie (Carmagnola)
04/05/2022
Scanning Tunneling Microscope (STM)
Questa tecnica permette di fare sia imaging che
eventualmente modificare direttamente il materiale,
in questo caso il substrato deve essere conduttivo.
La sonda è una punta nanometrica (un cono di
dimensioni nanometriche) di un materiale conduttivo.
Viene avvicinata la superficie del materiale e si applica
una differenza di potenziale. Le d.d.p. sono piccole,
nel range tra -10 e +10 V.
Si genera una corrente elettrica tra la punta e il
campione, dovuto al passaggio di elettroni tra di essi.
Questa corrente è proporzionale alla distanza che la
punta ha rispetto al campione: diminuisce se si
allontana la punta dal campione.
Si fa passare la punta sul campione, si registra la
corrente e dai cambiamenti di corrente si riesce a
risalire alla morfologia del campione, nel caso si faccia
imaging.
Si vedrà successivamente come è possibile fare
modifica superficiale utilizzando questa tecnica.
È una tecnica molto precisa, ma anche molto lenta: sfrutta il fatto di avere sia la punta che il
substrato conduttivi e questo implica delle limitazioni, perché non tutti i substrati che si possono
andare a modificare sono per forza conduttivi. Per eliminare questa limitazione si può utilizzare la
tecnica del microscopio a forza atomica (AFM).
Atomic Force Microscope (AFM)
È una tecnica ampiamente utilizzata per fare imaging a livello nanometrico e permette di incidere
direttamente anche il campione, quindi di andare ad asportare materiale. Questa tecnica, come la
STM, si può utilizzare anche per aggiungere materiale sul substrato, quindi fare un processo
additivo e essere utilizzata come tecnica di bottom up.
Questa tecnica è più versatile perché utilizza interazioni
meccaniche e quindi il substrato può essere non conduttivo. Si può
utilizzare su substrati normali e su substrati connettivi, su substrati
asciutti e su substrati umidi. Si basa sulla presenza di un probe
(punta) su un cantilever, cioè una barra a cui è ancorata una punta
nanometrica. Si è visto che una delle tecniche maggiormente
utilizzate per realizzare le punte dell’AFM è la litografia a fascio di
elettroni.
2
Sogos/Vecchio
27 Bionanotecnologie (Carmagnola)
04/05/2022
La punta interagisce con il substrato ed interagendo con esso fa deflettere il cantilever. La
deflessione viene misurata con un laser che va a incidere sul cantilever, ogni volta che questo si
muove (si flette) cambia l’angolo di incidenza del laser, che viene catturato da un detector.
Andando a vedere come si flette il cantilever si riesce a ricostruire la morfologia del campione. Si
rivelano quindi i movimenti della punta attraverso il fatto che essa comporta la deflessione del
cantilever.
La figura a destra è un’immagine classica ottenuta con il microscopio a
forza atomica: si ha un substrato la cui area analizzata è 7 µm x 7 µm e
si riesce a monitorare la scritta presente su di esso.
Visto che si basa sulla deflessione del cantilever si avrà informazione
relativa all’ampiezza e alla fase della deflessione.
La fase della deflessione permette di avere anche delle informazioni
sul tipo di composizione del materiale, quindi permette di capire se un
materiale è più o meno rigido e quindi eventualmente cambiamenti di
organizzazione del materiale o di diversi tipi di materiale.
Ad esempio durante le esercitazioni sono stati visti i poliuretani: questi si organizzano in blocchi
soft e hard e con l’AFM, andando ad analizzare la fase, non solo si riesce ad avere la morfologia di
un film di poliuretani, ma si riesce a vedere anche la differenza della disposizione delle fasi soft e
delle fasi hard.
Metodi di utilizzo
Ci sono 3 diversi modi di operare con l’AFM, che cambiano in funzione di quello che si vuole
ottenere:
- contact mode: la punta dell’AFM viene posta direttamente
a contatto del campione e viene mossa su di esso. Si ha un
contatto continuo tra la punta dell’AFM e il campione. Ha
solo uno svantaggio: la punta può rovinarsi e consumarsi, il
fatto di avere un contatto continuo tra campione e substrato porta ad un’usura maggiore della
punta dell’AFM.
- intermittent contact mode (o tapping mode): la punta
viene fatta oscillare sul campione con ampiezze abbastanza
grandi, quindi tocca il campione solo in determinati punti. Il
contatto con il campione non è continuo ma è puntuale, in
funzione dei parametri di movimento della punta impostati.
- non contact mode: si posiziona la punta in prossimità del
campione, si misura una forza di Van der Waals ad una
certa distanza e si decide di mantenere costante quella
forza. La punta viene fatta muovere sul campione e, in
funzione della morfologia del campione, si sposterà al fine
di mantenere questa forza costante. Anche in questa modalità si avrà il muoversi della punta,
quindi la deflessione del cantilever e quindi l’ottenimento dell’immagine del substrato.
3
Sogos/Vecchio
27 Bionanotecnologie (Carmagnola)
04/05/2022
AFM Nanolitography
STM e AFM possono essere utilizzate per fare
imaging ma anche per andare ad incidere
direttamente il materiale e, soprattutto nel
caso dell’AFM, si può fare quella che viene
chiamata scratch litography: la punta incide
direttamente il materiale lasciandosi dietro
una traccia, ottenendo quindi un’immagine in
cui si avranno zone di rilievo e zone incise.
Con questa tecnica si possono ottenere spessori di 20 nm e profondità di 2 nm. In questo caso la
punta è posta direttamente a contatto con il materiale e si impone una forza tale da poterlo
incidere (questa forza cambierà in funzione del materiale che si vuole incidere).
Il grosso svantaggio della scratch litography è che le punte tendono a rompersi, si ha la rottura
della punta dell’AFM. Per evitare la rottura e allungare la vita della punta si può:
- andare a rinforzare la punta, ad esempio funzionalizzandola con nanotubi di carbonio e quindi
aumentandone le proprietà meccaniche.
- indebolire il materiale, soprattutto quando si parla di materiali polimerici questi si possono
scaldare al fine che sia necessaria una forza inferiore per poter fare l’incisione.
Risposte a domande in aula:
- dipende dal materiale che si sta modificando. Nel caso di materiali polimerici si può utilizzare la
tecnica di aumentare la temperatura, perché comunque hanno delle Tg a temperature abbastanza
basse. Nel caso si voglia andare a scratchare materiali più resistenti si deve passare su una punta
funzionalizzata e irrobustita al fine di riuscire a scalfire anche i substrati più resistenti (ad esempio
metallici).
- gli strumenti per fare AFM e STM sono molto costosi e anche le punte lo sono. Adesso ci sono
sistemi molto automatizzati, esistono cantilever con punte direttamente montate o con sistemi in
cui si monta la punta in modo molto veloce. L’oggetto che si usura è la punta, mentre il cantilever è
una barra che si deve solo flettere e non si hanno deflessioni troppo elevate, per cui rimane a
lungo. Tendenzialmente si cerca di preservare le punte.
L’AFM della nanolitografia può essere utilizzata anche
per depositare strati di ossido. Questi strati di ossido
possono essere o direttamente la modifica del
materiale, o possono essere utilizzati come lo strato
che può essere poi inciso nelle future fasi di etching.
Per ottenere gli strati di ossido nel cantilever si sfrutta
il fatto che la punta dell’AFM in condizioni umide
4
Sogos/Vecchio
27 Bionanotecnologie (Carmagnola)
04/05/2022
tende a attirare molecole d’acqua e, se è a contatto con il substrato, tende a formare un sottile
menisco. Se si applicano dei potenziali alla punta si ha la dissociazione delle molecole d’acqua e
quindi la formazione di strati d’ossido.
Mentre la punta si muove sul campione, al posto di asportare materiale, deposita un sottilissimo
strato di ossido sul materiale che poi può essere utilizzato eventualmente come protezione per i
successivi passaggi di etching del campione.
Con questo si chiude la parte di litografie e la parte di tecniche top-down. Si vedranno ora le
tecniche di bottom-up.
NANOFABBRICAZIONE – TECNICHE BOTTOM UP
Sono state viste le tecniche che permettono di partire da un substrato bulk, si asporta materiale e
si ottiene la nanostruttura, tendenzialmente in sistemi di basso rilievo (si hanno zone a rilievo e
zone in depressione).
Si vedranno ora alcuni metodi per
ottenere materiali nanostrutturati
bottom-up, partendo quindi da singoli
elementi che vengono assemblati in
qualche maniera per ottenere una
struttura nanometrica.
È già stata vista una tecnica che permetteva di andare a depositare materiale: la litografia a fascio
di ioni (FIB). Questa litografia permette sia di andare a rimuovere materiale dal substrato, e quindi
agire come le altre tecniche litografiche viste, ma se accompagnata dalla presenza di un
precursore di un gas è possibile ottenere deposizione di materiale direttamente sulla superficie e
quindi andare ad ottenere strutture tridimensionali sulla superficie del materiale ottenuto
utilizzando quel precursore di un gas, che può essere materiale metallico o ceramico.
Altre tecniche bottom-up:
- DIP-PEN nano litografia: in realtà utilizza l’AFM, quindi le tecniche con il probe per andare a
depositare materiale sulla superficie.
- Nanofabbricazioni assistite da sistemi biologici: i sistemi biologici possono essere
microorganismi (come batteri o virus) o biomolecole (come proteine).
5
Sogos/Vecchio
27 Bionanotecnologie (Carmagnola)
04/05/2022
Scanning Proximal Probes
Si vedranno ora gli approcci bottom-up con le tecniche che utilizzano i probe, in particolare si
inizierà dall’STM.
L’STM è una tecnica che prevede di scansionare il campione con una punta nanometrica (punta e
campione conduttivi), si genera una differenza di potenziale tra punta e campione e quindi si ha la
generazione di corrente. Questa generazione di campo elettrico può essere utilizzata per
manipolare o spostare atomi.
In particolare si può avere lo spostamento dei singoli atomi:
- lungo la superficie: da un punto della superficie x si sposta in un altro punto x1. In questo caso
vengono chiamati processi paralleli.
- tra la superficie della punta e il campione (e viceversa): vengono chiamati processi
perpendicolari. Nel caso in cui l’atomo sia trasferito dal substrato alla punta si avrà che si toglie
materiale dal substrato, nel caso in cui si aggiunga materiale dalla punta al substrato si ha un
processo additivo, quindi si genera nuovo materiale sul substrato.
La risoluzione di questi processi è del singolo atomo, perché quelli che si spostano sono gli atomi.
I processi sono estremamente lunghi. Negli anni ’80 all’IBM
è stata sviluppata questa tecnica per muovere materiale e la
scritta in figura è stata ottenuta in circa una settimana. È
stata ottenuta andando a depositare degli atomi di Xeno su
una superficie di Nichel. Proprio perché si va a spostare
atomo per atomo il processo è veramente lungo.
NANOLITOGRAFIA DIP-PEN (DPN)
È una tecnica decisamente più implementata e utilizzata, introdotta alla fine degli anni ’90 dal
professor Mirkin dell’Università del Northwestern ed è stata considerata tra le top 100 invenzioni
che hanno rivoluzionato il mondo secondo National Geographic.
Il principio di questa tecnica è di utilizzare la punta dell’AFM per andare a depositare materiale,
come se fosse un inchiostro. Si basa sul fatto che l’umidità dell’ambiente tende ad attaccare la
punta: se la punta è in un ambiente umido l’acqua tende ad aggregarsi alla punta e formare il
menisco (già visto per la deposizione dello strato di ossido).
Se si mette del materiale in una soluzione, questo tenderà a passare dalla punta al substrato o dal
substrato alla punta e quindi l’idea è di sfruttare i movimenti di molecole all’interno dell’acqua per
andare a depositare materiali sui substrati.
6
Sogos/Vecchio
27 Bionanotecnologie (Carmagnola)
04/05/2022
In figura si ha un esempio con molecole di tioli. Si ha il
braccio dell’AFM (il cantilever), la punta e il substrato d’oro.
La punta dell’AFM è rivestita con acqua contenente le
molecole dei tioli, che si organizzano sul substrato attraverso
la formazione del menisco tra la punta e il substrato. Quindi
si ha un passaggio delle molecole tra la punta e il substrato.
Si ha che il cantilever ha all’interno un reservoir della
soluzione  viene passato alla punta  la punta viene
avvicinata al campione  si forma il menisco  il materiale
viene passato dalla punta al substrato.
Le risoluzioni che si possono ottenere sono dell’ordine della
decina di nanometri. È una tecnica che permette di deporre
materiale su un substrato e la risoluzione dipende da:
- rugosità del substrato: più il substrato è liscio, più si ottengono risoluzioni migliori. L’ideale è
avere substrati flat e lisci.
- umidità relativa: minore è l’umidità, maggiore è la risoluzione. Questo perché minore è l’umidità,
minore è la dimensione del menisco che si produce tra la punta e il substrato, quindi minore è la
dimensione della traccia che viene depositata sul materiale e quindi minore è la dimensione
dell’inchiostro depositato sul substrato.
- velocità con cui la punta si muove sul campione: solitamente velocità maggiori comportano
risoluzioni maggiori.
Risposta a domanda in aula:
- minore è l’umidità, migliore è la risoluzione. Meno acqua c’è, meno acqua si deposita sulla punta
e più piccolo è il menisco che si forma tra il substrato e la punta. Si migliora la risoluzione nel range
in cui l’umidità effettivamente permette di deporre, perché a umidità troppo basse (in condizioni
praticamente secche) non si ha più la formazione del menisco e non si riesce a deporre il materiale.
Nel range di umidità in cui viene permessa la deposizione di materiale, se si è nella parte bassa del
range si ottengono risoluzioni migliori.
7
Sogos/Vecchio
27 Bionanotecnologie (Carmagnola)
04/05/2022
Controllo delle dimensioni del pattern
- Nell’immagine sono presenti degli
spot ottenuti per deposizione di
materiale con la tecnica della DIPPEN. Si può notare come il diametro
cambia in funzione del tempo di
contatto tra punta e campione,
quindi in realtà sarebbe la velocità di
scansione. Più aumenta il tempo di
contatto, più aumenta la dimensione dello spot. Gli spot più grandi sono quelli ottenuti con un
tempo di contatto maggiore (fino a 10 s). Con 10 s si hanno spot che hanno un diametro intorno ai
400 nm. Se si va a diminuire il contatto fino a 2 s si ottengono spot di 50 nm (mantenendo costanti
gli altri parametri). È un andamento abbastanza lineare.
- Si possono cambiare le condizioni
ambientali: umidità e temperatura,
ma principalmente l’umidità.
Nell’immagine il range va dal 30% al
46%, nel grafico arriva fino all’80%,
gli spot dell’immagine sono i
rispettivi pallini blu del grafico. Se si
utilizzano umidità basse (nell’intorno
del 30%) gli spot sono di circa 50 nm, aumentando l’umidità fino al 46% si ottengono spot
dell’ordine dei 400 nm, aumentando ancora l’umidità si ottengono spot fino ai 1000 nm (1 µm). È
un rapporto abbastanza lineare, mantenendo costanti gli altri parametri.
In funzione delle dimensioni del pattern che si vuole ottenere, che siano le dimensioni di una linea
o degli spot, si possono settare o il tempo di deposizione o l’umidità al fine di ottenere il diametro
o le dimensioni geometriche desiderate.
- Video mostrato: https://www.youtube.com/watch?v=h3E5Xwm5AKI
Si è visto che con la DPN si possono depositare diversi tipi di proteine ed è quindi una delle
tecniche maggiormente utilizzate per fare multi-array, quindi deporre proteine, DNA, materiali che
poi servono per la sensoristica.
Come si può utilizzare il materiale? Fino ad ora si è vista una singola
punta che deposita un tipo di materiale, questa in realtà è una tecnica
molto lenta e prima di permettere di depositare sistemi più complessi i
tempi sarebbero veramente lunghi. Sono stati introdotti gli array di
punte: sistemi con molte punte che possono essere utilizzati per fare
contemporaneamente più spot o più linee direttamente sul substrato.
Sono stati realizzati e utilizzati array anche con migliaia di punte.
8
Sogos/Vecchio
27 Bionanotecnologie (Carmagnola)
04/05/2022
Gli array possono essere:
- passivi: array già realizzato con tante punte che vengono imbevute o tutte con lo stesso
inchiostro o con inchiostri diversi e poi vengono passati sul substrato.
- attivi: array realizzati da punte che vengono attivate indipendentemente, permettono di
realizzare strutture più complesse.
In generale questa tecnica è utilizzata con i multi-array e quindi con l’utilizzo di più punte per
andare a depositare materiale sul substrato.
Esempi
In figura sono presenti alcuni esempi di morfologie di substrati che si possono ottenere utilizzando
questa tecnica.
- La figura A è l’immagine al SEM (colorata di
verde successivamente) di un array con una
penna costituita da 55 000 punte.
- L’immagine B è ottenuta al microscopio a
fluorescenza e sono delle molecole deposte
in questi quadrati, a loro volta
funzionalizzate con una molecola
fluorescente che permette di essere
visionati. La dimensione è di 10 µm, quindi i
quadratini sono un po’ più piccoli di 10 µm e
sono a loro volta costituiti da tanti spot.
- Nella figura C si visualizzano delle
nanoparticelle d’oro che sono state
ibridizzate con il DNA immobilizzato su un
substrato. La tecnica del DIP-PEN è stata
utilizzata per deporre DNA sul substrato e
poi al DNA sono state fatte ibridizzare
nanoparticelle d’oro.
- La figura D mostra un pattern di proteine.
9
Sogos/Vecchio
27 Bionanotecnologie (Carmagnola)
04/05/2022
Direct write multiple-DNA inks
Un altro esempio: si può andare a deporre più tipi di
DNA direttamente su un substrato, utilizzando questa
tecnica. Si parte da un substrato che è stato
funzionalizzato (silanizzato) ed è stato poi andato ad
aggraffare il DNA, quindi è stato fatto un pattern con
due diversi DNA che sono stati legati a due molecole fluorescenti diverse
(rosse e verdi). Si vede dalla figura come riesce a deporre sul substrato un
pattern delle due molecole di DNA utilizzando questa tecnica.
DIP-PEN nanolitografia for oncologic screening
Tendenzialmente questa tecnica viene utilizzata in sensoristica per detectare sistemi, in
particolare come tecnica di screening oncologico.
Per andare a determinare la presenza o meno di
tumori o verificare se la terapia utilizzata ha
efficacia o meno sul tumore, si vanno a detectare
quelli che vengono chiamati marker tumorali:
sostanze che possono essere presenti nel sangue,
nelle urine o in particolari tessuti che
tendenzialmente aumentano la loro concentrazione in presenza di cellule tumorali. Sono quelle
molecole che vengono utilizzate per andare a fare lo screening e detectare. Allo stesso modo le
stesse molecole possono essere utilizzate anche per valutare l’efficacia di una terapia.
Con questa tecnica è possibile andare a depositare
sul substrato diversi marker tumorali e poi andare a
depositare i liquidi da analizzare e capire se
effettivamente i marker tumorali si legano ai vari
anticorpi che sono stati posizionati sul substrato.
Se si vuole detectare un determinato marker si
posiziona sul substrato l’anticorpo monoclonale,
questo lo posso fare con la tecnica del DIP-PEN,
ampiamente utilizzata per andare a depositare
proteine o molecole di DNA sulla superficie. Gli
anticorpi non sono altro che delle particolari proteine, quindi si possono mettere sulla superficie.
Sempre con la stessa tecnica si possono depositare i liquidi e capire se effettivamente i marker
sono presenti nel liquido analizzato.
Per capire se i marker sono presenti e si sono legati agli anticorpi precedentemente aggraffati sulla
superficie si possono utilizzare diverse tecniche:
10
Sogos/Vecchio
27 Bionanotecnologie (Carmagnola)
04/05/2022
- Si può fare la deposizione e utilizzare l’AFM per andare a detectare il profilo della superficie e
vedere cos’è successo.
- Si può lavorare sull’affinità di molecole o comunque utilizzando molecole fluorescenti.
- Si possono utilizzare tecniche che permettono di andare a capire se un materiale è deposto sulla
superficie. Una di queste tecniche è la risonanza superficiale plasmonica.
Surface Plasmon Resonance
Questa tecnica viene impiegata per la rivelazione di deposizione di massa su un substrato. Se sul
substrato su cui si sono legati gli anticorpi si va a legare altro materiale (i marker) si avrà un
cambiamento di massa superficiale che può essere valutato con questa tecnica.
Si utilizza quando si parla di cambiamenti di masse, quindi
adesioni di piccole molecole su un substrato. Sono due le
principali tecniche che vengono utilizzate: la QCM
(microbilancia al quarzo) e la SPR (risonanza superficiale).
Danno informazioni complementari, l’ideale sarebbe
utilizzarle entrambe.
Nel caso della QCM il limite è che l’analisi si fa in real time, in
questo caso il substrato deve essere analizzato prima e dopo
l’esposizione del substrato al liquido analizzato per
determinare la presenza del marker, per cui si utilizza la SPR.
La SPR rileva variazioni dell’indice di rifrazione della superficie su un sensore: l’indice cambia se
cambia la massa sul sensore.
Il sensore è costituito da un substrato di vetro e da un
sottile strato d’oro. Viene fatta incidere la luce sul sensore,
ad un determinato angolo di incidenza una porzione
dell’energia luminosa interagisce con gli strati più
superficiali dell’oro e forma il surface plasmon wave
(onda di plasmoni).
Questo strumento cerca di mantenere sempre presente
l’onda di plasmoni. Quando si ha una deposizione di
materiale sul sensore si ha un cambiamento di massa che cambia l’indice di rifrazione, quindi lo
strumento valuta queste variazioni. L’indice deve essere cambiato perché deve mantenere la
presenza del plasmone superficiale.
Lo strumento monitora i cambiamenti dell’indice di rifrazione collegati all’aumento di massa sul
sensore.
In questo caso è stata fatta l’analisi del sensore dopo che è stato immobilizzato l’anticorpo e poi è
stata ripetuta l’analisi dopo che è stato esposto al liquido che potrebbe contenere il marker
tumorale per quell’anticorpo. Se effettivamente è presente il marker tumorale si ha un
11
Sogos/Vecchio
27 Bionanotecnologie (Carmagnola)
04/05/2022
cambiamento di massa sul sensore, quindi si avrà anche un cambiamento di indice di rifrazione che
viene valutato da questa tecnica analitica.
In generale il sensore è integrato in un sistema ottico, viene emessa una luce LED che viene fatta
passare sul sensore e poi fatta riflettere dalla superficie d’oro. Da questo strumento viene rilevato
il cambiamento dell’angolo di incidenza della luce che porta alla formazione del plasmone
superficiale, quindi questa tecnica può essere utilizzata direttamente in sensoristica per captare la
presenza di marker su una superficie funzionalizzata con un determinato anticorpo.
Con questo si conclude la parte della litografia DIP-PEN.
NANOFABBRICAZIONE IBRIDA IN NATURA
Si vedranno ora una serie di tecniche che prevedono di ottenere nanomateriali, in particolare
inorganici, sfruttando l’interazione e l’affinità che questi hanno con determinate strutture organiche
o organismi.
Questa classe di tecniche e chiamata nanofabbricazione ibrida in natura: ibrida perché permette di
ottenere sistemi inorganici sfruttando la loro affinità con determinati sistemi viventi, che possono
essere o organismi (batteri e virus) o biomolecole (proteine).
Batteri Magnetotattici
I batteri vengono utilizzati per produrre anche una serie di materiali non metallici (polimerici), ad
esempio una particolare classe di Poliidrossialcanoati vengono prodotti con batteri.
I batteri possono essere utilizzati anche per produrre molecole antibatteriche: c’è tutta una classe
di surfattanti, che sono molecole antiadesive utilizzate come materiali antibatterici in rivestimenti
superficiali, che vengono prodotte da batteri.
In questo caso verranno introdotti invece i batteri magnetotattici.
In funzione della composizione della parete cellulare i batteri possono essere definiti come GRAMpositivi o GRAM-negativi, i batteri magnetotattici sono principalmente GRAM-negativi.
Nel 1963 è stato osservato per la prima volta all’Università di Padova che alcuni tipi di batteri, se
sottoposti a campo magnetico, tendevano a muoversi e organizzarsi in funzione del campo
applicato.
Questi batteri si trovano solitamente nelle transizioni tra acqua e sedimenti.
I movimenti in relazione al campo magnetico sono dovuti a delle strutture presenti all’interno dei
batteri, che sono materiale inorganico magnetico.
12
Sogos/Vecchio
27 Bionanotecnologie (Carmagnola)
04/05/2022
Questi cristalli di materiale sono organizzati in quelli che
vengono chiamati magnetosomi, che sono organelli di
materiale magnetico all’interno dei batteri, che permettono ai
batteri di allinearsi lungo la direzione di un campo magnetico
applicato.
La figura a destra è un’immagine al microscopio di questi
batteri, le parti evidenziate con le frecce in nero sono i
magnetosomi (organelli costituiti da materiali magnetici).
Tendenzialmente possono essere prodotti due tipi di
materiali magnetici da questi batteri: materiali magnetici da
ossido di ferro o da solfuro di ferro, quindi quello che si
ottiene all’interno di questi magnetosomi (in natura) sono o
magnetite o greigite (ottenuta dal solfato di ferro).
Ci sono alcuni batteri che producono solo magnetite o solo greigite, altri che producono
indiscriminatamente un tipo e un altro di materiale.
I magnetosomi sono organelli che possono avere varie forme e dimensioni e solitamente sono
organizzati in maniera ordinata all’interno della cellula, facendo catene, e solitamente se si hanno
più catene queste si allineano fra di loro al fine di ottimizzare l’energia magnetostatica che questi
materiali comportano.
I magnetosomi sono nanometrici, solitamente hanno un range che va da 35 a 120 nm. In funzione
della dimensione sono caratterizzati da diverso comportamento magnetico:
- nel caso siano in questo range (35-120 nm) sono materiali che a temperatura ambiente sono stabili
e riportano massimo dipolo magnetico.
- nel caso siano di dimensioni inferiori a 35 nm hanno un comportamento supermagnetico.
- nel caso siano di dimensioni maggiori a 120 nm non hanno un comportamento magnetico uniforme
perché le interazioni causano una non uniformità del comportamento dei batteri.
Che cosa influenza nei batteri la formazione di diverse strutture? In realtà le strutture sono speciespecifico, quindi in funzione del tipo di batterio che le produce si avrà o solo un tipo di materiale o
solo un altro, ma dipendono anche dalle condizioni ambientali in cui il batterio cresce. Si vedrà che
dipendono dalle concentrazioni di Ossigeno, Ferro e Azoto nell’ambiente.
13
Sogos/Vecchio
27 Bionanotecnologie (Carmagnola)
04/05/2022
In particolare per il ferro i batteri magnetotattici hanno una presenza di Ferro molto maggiore
rispetto ai batteri normali, si stima che al loro interno riescano a trattenere fino a un 4% del loro
peso a secco. Quindi se vengono disidratati, un 4% può essere costituito da Ferro.
Un’altra caratteristica dei magnetosomi è che sono racchiusi da una membrana lipidica,
interessante per applicazioni biomediche.
Come si formano? Gli step sono:
- Formazione di vescicole che mantengono all’interno i magnetosomi;
- Uptake del Ferro extracellulare all’interno della cellula;
- Trasporto del Ferro all’interno dei magnetosomi;
- Crescita dei cristalli minerali, quindi la biomineralizzazione del cristallo.
L’ordine in cui avvengono questi passaggi non è chiaro: sicuramente si ha l’uptake del Ferro
dall’ambiente extracellulare all’ambiente intracellulare e il trasporto e la biomineralizzazione del
Ferro nel cristallo, non si sa però se la membrana si forma prima, durante o dopo la formazione dei
cristalli.
Risposta a domanda in aula:
Solitamente ogni singolo organello va da 35 nm a 120 nm, ma si è visto che poi gli organelli si
possono distribuire all’interno dei batteri in strutture più o meno organizzate e lineari. Ci sono poi
magnetosomi più piccoli o più grandi. La dimensione in realtà influenza il tipo di comportamento
magnetico che questi materiali hanno: i più piccoli (sotto il range dei 30 nm) mostrano
comportamenti paramagnetici e invece, da 35 a 120 nm comportamento classico, se sono tanto
grandi il comportamento non è omogeneo su tutta la distribuzione dei magnetosomi.
In natura, se si prendono i batteri trovati nell’acqua, ciò che influenza la formazione dei
magnetosomi è il tipo di batterio che li produce e le condizioni ambientali (quindi quanto Ferro
ottiene dall’ambiente e la presenza di Ossigeno e Azoto).
Si può pensare ai batteri magnetotattici come a
dei piccoli bioreattori, quindi si possono coltivare
andando a dare stimoli precisi al fine di ottenere
magnetosomi con la composizione voluta, quindi
guidare la crescita dei magnetosomi per
soddisfare le richieste.
La crescita può essere guidata in funzione della concentrazione di Ferro a cui vengono esposti e
variando alcuni parametri come il pH e il potenziale redox.
14
Sogos/Vecchio
27 Bionanotecnologie (Carmagnola)
04/05/2022
Andandoli a coltivare in condizioni particolari si
ottengono magnetosomi con le caratteristiche
desiderate.
Nella tabella a destra sono riportate alcune
delle potenziali applicazioni che questi
magnetosomi hanno in ambiente biomedicale.
Un’altra cosa importante dei magnetosomi è la presenza
della membrana lipidica che li racchiude.
Questo perché in molte applicazioni quello che si vuole
ottenere, quando si utilizzano nanocarrier o strumenti
nanometrici, è la funzionalizzazione superficiale. Ad
esempio rivestirli con molecole target per utilizzarli come
sistemi di diagnostica o di terapia.
Il fatto di avere già una membrana lipidica facilita questo
passaggio, permettendo di andare a modificarli più
facilmente al fine di ottenere il sistema desiderato.
Batteri Magnetotattici – Terapia termica dei tumori con campi magnetici alternati
Si vuole andare ad ottenere una terapia termica perché il problema principale delle terapie
oncologiche è costituito dagli effetti collaterali che il farmaco impiegato ha su cellule e tessuti che
non siano il target.
Se si riesce a prendere delle particelle e portarle direttamente sul tumore, si riesce anche a verificare
se queste particelle lo abbiano raggiunto (spions) e se, sollecitate in un modo particolare, si riesce a
produrre calore direttamente nel sito del tumore, questo può essere positivo perché si vanno a
danneggiare solo le cellule tumorali.
Le classi di particelle magnetiche svolgono proprio questo ruolo:
- possono essere indirizzate verso le cellule tumorali o da un campo magnetico o funzionalizzate
superficialmente e targetizzate verso il tumore.
- possono essere visualizzate, ad esempio con la risonanza magnetica è possibile capire se le
particelle hanno raggiunto effettivamente il tumore.
- una volta determinato il raggiungimento del sito specifico, si può applicare un campo magnetico
alternato che fa sì che le particelle si scaldino e quindi si abbia una terapia termica localizzata sul
tumore.
La controindicazione di questi sistemi è che solitamente le particelle magnetiche ottenute
chimicamente hanno effetti abbastanza tossici, quindi si tende a mantenere delle soglie di
15
Sogos/Vecchio
27 Bionanotecnologie (Carmagnola)
04/05/2022
concentrazione molto basse per non avere altri effetti indesiderati. Una concentrazione di particelle
basse però si traduce in poco calore prodotto, quindi non sempre la terapia è efficace.
Al posto delle particelle magnetiche sintetizzate chimicamente sono stati utilizzati i magnetosomi
ottenuti dai batteri magnetotattici. Questo perché si è visto che determinati magnetosomi
forniscono più calore, a parità di concentrazione, rispetto alle particelle magnetiche prodotte
chimicamente. Inoltre si può sfruttare la membrana lipidica presente naturalmente sui
magnetosomi per targettare meglio le particelle verso le cellule target e per eventualmente
ancorare sulla superficie un farmaco chemioterapico.
In questo caso si potrebbe combinare facilmente la terapia termica utilizzata contro il tumore con
un farmaco chemioterapico normalmente utilizzato.
Risposta a domanda in aula:
I batteri sono già ingegnerizzati? In questo caso i batteri si ingegnerizzano non a livello genetico,
ma si vanno a stressare facendoli crescere in determinate condizioni che fanno sì che si ottengano
i magnetosomi desiderati con le dimensioni richieste. È un’ingegnerizzazione della coltura in cui
vengono fatti crescere i batteri, ma non dal punto di vista genetico. Dal punto di vista genetico si
vedrà che potranno essere modificati i virus per portare alla formazione di strutture.
Nell’immagine sopra si vede che si parte dal batterio magnetotattico utilizzato (figura a, con le
frecce sono indicati i magnetosomi), poi i magnetosomi si organizzano in catene (figura b, catene
di magnetosomi estratte dal batterio) o in magnetosomi individuali (figura c).
16
Sogos/Vecchio
27 Bionanotecnologie (Carmagnola)
04/05/2022
Nello studio in figura si è provata la terapia termica
utilizzando magnetosomi in catena oppure
utilizzando magnetosomi che sono stati separati
dalla catena (singoli).
Sono stati paragonati i magnetosomi a catena con
l’effetto dei magnetosomi individuali e sono stati
confrontati anche con delle particelle magnetiche
commerciali. Si vedranno solo i risultati riportati
per le catene di magnetosomi.
L’ultima parte dello studio ha previsto test in vivo
su ratto: è stato fatto crescere un tumore sul fianco
del topo, sia sul destro che sul sinistro.
Su un fianco è stato effettivamente trattato
inserendo i magnetosomi e applicando per 3 giorni
un campo magnetico alternato: sono stati esposti
per 20 minuti ad un campo magnetico alternato,
per 3 volte a distanza di un giorno.
Nell’altra parte del tumore è stato effettuato il controllo,
quindi la stessa terapia con il campo magnetico ma ai topi
era stato iniettato solo PBS (soluzione salina).
Nel grafico è riportato l’andamento della percentuale di
volume di tumore in funzione del tempo.
A 30 giorni il tumore, considerando la parte in presenza dei
magnetosomi, era decisamente più piccolo rispetto al caso
in cui il tumore era stato trattato solo con la PBS.
La stessa cosa è stata fatta utilizzando i magnetosomi
individuali ed effettivamente si vede che c’è una diminuzione
a 30 giorni del volume del tumore anche in questo caso, ma
la differenza con la parte trattata con PBS è molto più piccola
rispetto a quando si utilizzano i magnetosomi in catena. Sono
più efficaci quando utilizzati in catena.
In generale, rispetto a questo studio, i magnetosomi
funzionano meglio rispetto alle nanoparticelle magnetiche
commerciali e si è visto che funzionano meglio se presenti in
catena. Questo perché si organizzano in modo da riuscire a
conferire maggior calore al tumore e aumentare l’effetto dannoso sul tumore.
Risposta a domanda in aula:
17
Sogos/Vecchio
27 Bionanotecnologie (Carmagnola)
04/05/2022
Sicuramente alcuni topi hanno il sistema immunitario compromesso. Vengono utilizzati come
modello, sono mammiferi e hanno caratteristiche in comune con l’uomo ma altre no, ad esempio il
sistema immunitario del topo è molto diverso. Solitamente i topi sono immunodepressi.
Sicuramente tutti i test in vivo devono essere approvati dal comitato etico delle strutture o da
quello nazionale, almeno in Italia. Ogni volta che si fa un test in vivo con animali si fa un protocollo
che dev’essere approvato dal comitato etico. Il protocollo prevede, tra le altre cose: il numero di
campioni utilizzati, si deve spiegare perché si utilizzano n animali e si devono assicurare
determinate condizioni tra cui la decisione di come vengano sacrificati (nel caso debbano essere
sacrificati).
18
Palladino/Cucco
28 Bionanotecnologie (Carmagnola)
05/05/2022
NANOFABBRICAZIONE IBRIDA IN NATURA
BATTERI MAGNETOTATTICI
Nella lezione precedente si erano visiti i metodi di alcune tecnologie bottom-up per la
realizzazione di nanostrutture. Si era introdotta quindi la classe di tecniche che prendono il nome
di nanofabbricazione ibrida, ovvero che sfruttano la capacità di alcune molecole presenti in natura
o di alcuni organismi di essere agenti di nucleazione per materiali inorganici, che quindi portano
alla produzione di cristalli o comunque strutture nanorganizzate di materiali inorganici.
Si era visto l’esempio dei batteri magnetotattici. Essi contengono organelli nanometrici, detti
magnetosomi, che sono formati da cristalli di magnetite o gregite (materiali magnetici) inglobati in
una membrana lipidica. Questi batteri possono essere utilizzati come micro-bioreattori, per cui
andandoli a coltivare in specifiche condizioni si può andare a stimolare una determinata crescita di
materiale negli organelli ottenendo magnetosomi con determinate caratteristiche.
Queste possono essere sia batterio-specifiche, quindi dipendono dal tipo di batterio che si utilizza,
ma possono essere anche condizionate da fattori esterni, come dalla presenza di ioni ferro
nell’ambiente in cui vivono i batteri, dalla concentrazione di ossigeno e di azoto ecc.
Quindi, variando le condizioni in cui vengono fatti crescere e vivere i batteri si può andare in
qualche modo a influenzare la composizione dei magnetosomi.
Esempio applicativo: magnetosomi nella terapia termica dei tumori (vedere lezione precedente).
NANOFABBRICAZIONE VIRUS – ASSISTITA
Si sfruttano i virus, particelle submicrometriche che contengono materiale biologico tra cui anche
materiale genetico racchiuso in una capsula proteica, detta capside. Il capside può essere più o
meno complessa e può essere costituita da più o meno proteine.
I virus possono avere diverse forme: sferici, filiformi, struttura amorfa, strutture composite.
Nella lezione di oggi si vedranno, in particolare, le applicazioni per i virus a bastoncello (filiformi) e
per quelli più sferici.
Si possono sfruttare i batteri come template o scaffold per la nucleazione e crescita di materiale
inorganico. Questo perché i loro capsidi, la loro composizione, può essere affine a determinati
materiali inorganici e quindi può essere sito di nucleazione per determinati materiali organici.
Nel caso in cui si utilizzino batteri filiformi o a bastoncello, si otterranno, facendo nucleare
materiale inorganico sul capside, delle strutture nanofilamentose (nanotubi o nanofili di materiale
inorganico).
Strutture più sferiche invece si sfruttano per far sì che l’interno del capside sia il centro di
nucleazione. Si ottengono delle nanoparticelle inorganiche. In questo caso, si può sfruttare il
capside o per attaccare qualcosa sulla superficie (andare a inserire sulla superficie altre
biomolecole, che possono aumentare il targeting delle nanoparticelle o possono conferire
caratteristiche peculiari alle particelle ottenute nel capside) oppure si sfrutta il fatto che il capside
1
Palladino/Cucco
28 Bionanotecnologie (Carmagnola)
05/05/2022
inibisce l’aggregazione delle particelle mentre crescono (quindi si riescono ad ottenere delle
particelle ben separate, cosa che può essere critica quando si parla di sintesi di particelle
inorganiche per via chimica dove vi è il problema dell’agglomerazione).
Quindi, il virus può essere utilizzato o in funzione delle proprie caratteristiche del capside o può
essere ingegnerizzato al fine di cambiare la composizione del capside, ovvero andare a inserire nel
capside determinate sequenze peptidiche o determinate proteine che fungono da centri di
nucleazione di determinati materiali. In questo modo si riesce ad ottenere una struttura che può
essere controllata sia dal punto di vista morfologico (che seguirà quello del capside) ma anche
composizionale (in cui si possono ottenere materiali diversi).
Nella slide riportata, viene rappresentato quasi tutto
quello che si può fare partendo da due tipi di virus:



Virus filiforme, a bastoncello (M13): agisce
sui batteri infettandoli, si possono ottenere
anche strutture tridimensionali o cristalli
liquidi che possono essere intervallati o
mischiati con materiale inorganico (come
schematizzato, bastoncelli organizzati e divisi
da layer di materiale inorganico, formato su
una parte della superficie della membrana
del virus);
Virus TMV (virus mosaico del tabacco):
infetta le piante di tabacco
Strutture a gabbia virale: virus con strutture più sferiche in cui la gabbia proteica è usata
per la nucleazione all’interno di materiale inorganico.
Esempio: VIRUS M13
È stato ingegnerizzato dal punto di vista genetico, quindi è stato modificato geneticamente
al fine di esporre sulla superficie determinate sequenze peptidiche.
Qui si vede il virus che espone
tre diverse sequenze peptidiche
(identificate con colori diversi),
ognuna di queste sequenze sarà
poi centro di nucleazione
selettiva per determinati
materiali (il colore del materiale
è correlato direttamente alla
proteina da cui nuclea, al colore
della sequenza peptidica). Si
possono fare nucleare direttamente sulla superficie del virus diversi materiali inorganici, a
patto che il virus venga messo a contatto con i precursori del materiale che si vuole
ottenere; dunque a contatto con diversi ioni, le proteine poi fanno da centro di nucleazione
e il materiale così cresce in determinate posizioni.
2
Palladino/Cucco
28 Bionanotecnologie (Carmagnola)
05/05/2022
Se si effettua la fabbricazione di nanofili usando il virsu M13, si ottiene quello riportato
nella figura sottostante.
Nell’immagine in alto è presente il virus M13 in cui è stata
utilizzata una proteina per fare nucleare sulfuro di zinco in
superficie. Andando a ingrandire, si nota che sulla superficie
sono presenti tante strutture nanoparticellari, quindi il
materiale inorganico è nucleato in diverse posizioni del
capside, tanti centri di nucleazione fino ad ottenere la
copertura intera del virus.
Altra opzione è usare l’interno del capside come centro di
nucleazione. Anche in questo caso, si possono usare
strutture più sferiche in cui la struttura con il capside funge
da gabbia in cui possono nucleare, in funzione di
composizione e forze elettrostatiche presenti all’interno del
capside, diversi materiali inorganici. Anche qui, sia
modificando la composizione del capside o modificando le
interazioni elettrostatiche (cambiando ad esempio il pH), si
possono ottenere sia forme sia direzioni di cristallizzazione
diverse del materiale che si sta formando sul capside.
Le particelle ottenute saranno limitate dal capside per le
dimensioni. Nel caso del virus M13, i cristalli singoli ottenuti hanno una dimensione pari a
circa 26 nm (diametro del capside, del virus).
Si sfrutta il virus nella
composizione finale prima
che vada ad infettare
qualcos’altro.
Le membrane lipidiche dei
magnetosomi possono
essere sfruttate anche per
andare a modificare le
particelle. Anche in questo caso, si sfruttano i capsidi virali per andare ad ancorare sulla
superficie determinate biomolecole (farmaci o sequenze peptidiche che danno un targeting
specifico verso la struttura che si è ottenuta). Quindi, si possono sfruttare le caratteristiche
della membrana per funzionalizzare ulteriormente il materiale che si sta ottenendo, per cui
aumentarne il target e il delivery.
Nel caso dei virus filiformi, si possono organizzare in strutture tridimensionali con diverse
geometrie che possono essere o senza cristalli o con cristalli e poi si possono ottenere in
questo modo i cristalli liquidi, sia a livello tridimensionale sia a livello bidimensionale.
Da ricordare per la nanofabbricazione assistita da virus:
Anche in questo caso si può andare a ingegnerizzare il virus per ottenere un materiale
inorganico nanostrutturato con determinate caratteristiche. Quindi, poi risalendo si può
andare a modificare il processo modificando la composizione del virus o selezionando
determinati virus per ottenere quello il materiale richiesto.
3
Palladino/Cucco
28 Bionanotecnologie (Carmagnola)
05/05/2022
Esempio: virus mosaico del tabacco (TMV)
Anche in questo caso si ha una struttura filiforme cava, quindi la nucleazione può avvenire
sia internamente sia esternamente. Per cui il materiale si può deporre sia sulla superficie
che internamente.
Nella slide sono riassunti alcuni processi che si possono fare partendo dallo stesso virus per
ottenere composizioni e materiali diversi. Dal momento che si parte da un virus filiforme, si
otterranno nanofili o nanotubi di materiale inorganico.
NANOFABBRICAZIONE PROTEINA – ASSISTITA
Non solo organismi, ma anche biomolecole. In questo caso si sfrutta l’alta affinità della proteina
(ad esempio tra anticorpo e antigene) per andare a organizzare in modo predefinito dei materiali
inorganici.
Si possono andare ad usare anche altri tipi di proteine rispetto a quelle riportate nella slide,
l’importante è che siano altamente affini e selettive in modo da determinare il corretto
assemblamento del materiale metallico.
Partendo dalla prima riga, si hanno delle nanoparticelle di oro che devono essere organizzate in
strutture più o meno complesse (matrice in figura A). In questo caso, le particelle d’oro sono state
rivestite con un anticorpo. L’antigene affine all’anticorpo è stato utilizzato come link per unire più
particelle d’oro. Quindi a un solo antigene si possono linkare, dal momento che ha due siti affini
4
Palladino/Cucco
28 Bionanotecnologie (Carmagnola)
05/05/2022
all’anticorpo, due diverse particelle d’oro. Andando poi ad assemblare più componenti si riesce ad
ottenere una struttura complessa a griglia (come riportato).
Si possono usare antigeni che siano affini a diversi anticorpi.
In questo secondo caso si ha un antigene affine a due diversi anticorpi e particelle d’oro, alcune
funzionalizzate con un anticorpo, altre con l’altro anticorpo. Quello che si ottiene è la stessa
configurazione ottenuta in precedenza perché da entrambe le parti dell’antigene quello che si lega
sono comunque molecole di oro, indipendentemente dall’anticorpo che si è utilizzato.
L’antigene più complesso, quello affine a più di un anticorpo, può essere sfruttato per andare a
unire diversi materiali. Nell’esempio (terza riga) è riportata una particella di oro che è
funzionalizzata con un anticorpo e una di argento funzionalizzata con l’altro anticorpo, affine
all’antigene. Quindi, ogni antigene si legherà a una molecola di argento da una parte e ad una
particella di oro dall’altra. In questo modo si ottiene una matrice più complessa in cui sono messi
in modo alternato oro e argento.
L’importante è selezionare proteine che siano altamente selettive e affini alla molecola che è
stata posizionata sul materiale inorganico. In questo modo si riescono ad ottenere strutture
organizzate.
Nell’immagine è riportato l’esempio precedente (particelle d’oro che possono essere unite con
l’utilizzo di una proteina). Si ha nell’immagine A una soluzione colloidale di particelle d’oro, che
quindi sono distribuite nella soluzione e sono state rivestite con l’anticorpo.
Quando si aggiunge l’antigene per quell’anticorpo, le particelle tendono ad unirsi perché
l’antigene lega a due particelle di oro.
Quello che si riesce ad ottenere, sfruttando l’interazione dell’antigene con l’anticorpo legato alle
particelle d’oro, sono strutture filamentose d’oro realizzate dall’unione di tante particelle, ognuna
delle quali è legata alle altre dall’antigene.
Questo conclude la parte relativa alle tecniche di nanofabbricazione che sfruttano organismi e
molecole presenti in natura. Ognuna di queste tecniche in realtà aprirebbe un mondo, quindi si
potrebbe fare un corso su ognuna di queste tecniche. In questa lezione si è data un’idea della
possibilità di poter fabbricare sistemi nanostrutturati partendo da materiali presenti in natura.
5
Palladino/Cucco
28 Bionanotecnologie (Carmagnola)
05/05/2022
ELECTROSPINNING
NOTA: la parte dell’electrospray non sarà trattata a lezione, per cui non sarà presente all’esame.
Finora si sono viste una serie di tecniche che permettono di andare a processare materiali che non
erano polimeri.
Nel senso che si sono viste le lavorazioni del resist (resist polimerici) però in realtà il resist non è il
prodotto finale, è solo un template sacrificale per ottenere poi la morfologia su un substrato. È
stata vista tutta la parte di produzione di strutture inorganiche.
Per i polimeri si è vista la parte di soft litography, che permette di ottenere uno stampo in
materiale elastomerico partendo da un master ottenuto partendo con la fotolitiografia, e si è
accennato alla tecnica della litografia a due fotoni, che permette di disegnare il resist in struttura
tridimensionale ottenendo alla fine una struttura polimerica.
Per quanto riguarda il processamento a livello nanometrico dei polimeri, una delle tecniche di
eccellenza è l’electrospinning. Esso permette, partendo da una soluzione polimerica a cui viene
applicata alta tensione, di ottenere strutture fibrose collezionate su un collettore.
L’alta tensione fa sì che si producano delle correnti che portano a stirare la soluzione polimerica. In
questo modo si parla di electrospinning classico, esistono anche altre implementazioni della
tecnica. Ad esempio, si può partire da polimeri fusi (melt-electrospinning) quindi con polimeri che
vengono portati alla temperatura di fusione (o a una temperatura prossima a questa). Oppure, la
tecnica può essere implementata con un sistema CAD, ovvero può essere implementata per
diventare una tecnica di additive manufacturing, che sono quella classe di tecniche che partono
da un disegno CAD e la tecnica permette di processare il materiale al fine di ottenere il prototipo
che rispecchia il disegno CAD. Anche in questo caso si può unire la tecnica dell’electrospinning
partendo da un disegno CAD, quindi al posto di deporre in modo più o meno casuale le fibre,
queste possono essere deposte secondo una determinata geometria (melt-electrowriting).
ELECTROSPINNING CLASSICO
La tecnica classica prevede di partire da soluzioni e può essere anche chiamata elettrofilatura. Si
differenzia dalle altre tecniche di filatura dalla dimensione delle fibre che si ottengono: esse sono a
livello nanometrico (1-2 μm fino a diametri inferiori a 100 nm). Le altre tecniche di filatura
prevedono fibre con diametri dell’ordine dei micrometri e si utilizzano principalmente in ambito
tessile.
Si applica una tensione che stira la soluzione polimerica fino a far sì che sul collettore, dove
vengono raccolte le fibre, si ottengano delle fibre a livello nanometrico. Le fibre possono essere
prodotte in modo random, quindi si possono deporre in modo casuale sul collettore, o possono
essere allineate.
Le caratteristiche delle nanofibre ottenute con questa tecnica sono:

Diametri molto piccoli, fino a diametri inferiori a 100 nm (limite inferiore);
6
Palladino/Cucco


28 Bionanotecnologie (Carmagnola)
05/05/2022
Grande area superficiale che fa sì che questa tecnica sia molto sfruttata nel rilascio di
farmaco, in realtà è usata in un gran numero di applicazioni;
Pori con dimensioni piccole (micrometrici).
Si ottengono strutture tipo membrane, quindi quasi bidimensionali (l’area è molto più grande
rispetto l’altezza. A occhio nudo la membrana è compatta, ma vista al microscopio la deposizione
di tante nanofibre fa sì che sia anche porosa.
CONFIGURAZIONE
L’electrospinning è costituito da una pompa, una siringa, un collettore e un generatore di
tensione.
La pompa permette l’inserimento della siringa che contiene la soluzione polimerica e consente di
impostare un determinato flusso alla soluzione (ml/h, h=ora). La siringa è il sistema in cui viene
inserita la soluzione ed è caratterizzata da una punta metallica, perché deve essere conduttiva. Il
generatore di tensione applica la tensione tra la punta della siringa e il collettore. Il collettore,
come la punta della siringa, deve essere metallico. Questo può essere costituito sia di metallo sia
di materiale polimerico (plexiglass), di solito è rivestito di uno strato di alluminio su cui vengono
collezionate le fibre poi raccolte.
COME SI FORMA LA FIBRA?
Stesso setup visto, qua il tubo porta la soluzione dalla siringa all’ago.
All’interfaccia dell’ago si viene a formare il cosiddetto cono di Taylor. Ovvero si ha la formazione
della goccia che fuoriesce dall’ago, quando si applica la tensione si ha la produzione di cariche sulla
goccia. Nel momento in cui la forza delle cariche supera la tensione superficiale del polimero, la
goccia tende ad assottigliarsi e si forma il cono. Dal cono poi parte il filo che si assottiglierà sempre
più fino a depositarsi al collettore.
Il cono di Taylor lo si era già visto perché è la stessa tecnica che si utilizza per la produzione del
fascio di ioni nella tecnica FIB. In quel caso, il fascio di ioni viene prodotto principalmente partendo
7
Palladino/Cucco
28 Bionanotecnologie (Carmagnola)
05/05/2022
da un metallo liquido (gallio) posizionato su una siringa con un ugello da cui viene fatto fuoriuscire
e a cui è applicata una tensione. Anche in quel caso, quando la tensione supera la tensione
superficiale del gallio, si forma il cono e dando ancora energia i legami di gallio si rompono e si
forma il fascio di ioni.
In questo caso, si ha la formazione del filo, quindi del getto. Esso si propagherà nella distanza tra
ugello e collettore, in questa fase sarà soggetto a una serie di eventi che fanno sì che si riduca la
quantità di solvente (che evapora) e la dimensione delle fibre (si assottigliano fino al valore
nanometrico desiderato).
La distanza tra ago e collettore può essere variata e in base ad essa dipendono l’evaporazione del
solvente e lo spessore delle fibre. Nel caso il collettore fosse piano basta impostare la distanza, se
il collettore è invece un cilindro posto in rotazione si deve andare a impostare la rotazione del
cilindro.
Processo: si prepara la soluzione con le caratteristiche richieste, caricata sulla siringa, messo a
contatto per avere la forza di spingere la soluzione e si imposta il flusso. Poi si fa partire la pompa,
dalla siringa inizierà a uscire della soluzione polimerica. Si misura la distanza tra ago e collettore,
parametro che si varia per ottenere fibre più o meno grandi e per garantire la completa
evaporazione. Per raccogliere le fibre si usa un foglio di alluminio posizionato sul collettore. Nel
caso di un collettore piano si mette solo distanza, se invece si parla di un cilindro in rotazione si
deve anche impostare la rotazione del cilindro.
Per iniziare l’electrospinning si fa partire la pompa e si collegano i due morsetti per garantire la
tensione (morsetto + all’ago e morsetto – al collettore), quindi si imposta la tensione che bisogna
usare (ordine dei kV, in alcuni casi anche superiore a 30 kV).
La tensione fa in modo che la soluzione venga spinta verso il collettore. In realtà, non si riesce a
vedere ad occhio nudo cosa succede al getto. Di solito a occhio nudo si riesce a vedere se è
corretta la formazione del cono di Taylor e le fibre che si raccolgono sul collettore (alone bianco
che compare).
Le fibre che si ottengono si possono vedere come una membrana compatta e bianca depositata su
un foglio di alluminio. In realtà la membrana è costituita da nanofibre come ben si sa,
nanostrutture.
ELEMENTI DELL’ELECTROSPINNING
IL CAPILLARE
Il capillare è l’ugello da cui fuoriesce la soluzione. Questi sono degli aghi che possono essere usati
o con punta piatta o con punta tagliata in trasversale e hanno dimensioni molto piccole (diametri
diversi in funzione del prodotto finale che si vuole ottenere).


Se si utilizza l’ago semplice, si ottengono delle fibre piene di un solo materiale.
Se si vogliono ottenere delle fibre bicomponente, si possono usare degli aghi che hanno
due canali in cui in ognuno arriva un tipo di materiale che vanno a confluire nell’ago.
Quindi, uscirà una miscela composta dai due materiali. Condizione necessaria per poter
8
Palladino/Cucco

28 Bionanotecnologie (Carmagnola)
05/05/2022
utilizzare questo tipo di aghi è che le due soluzioni polimeriche che si inseriscono devono
avere condizioni di spinnabilità molto simili perché usando un solo capillare formato da
due canali, tutti gli altri parametri sono uguali. Per cui si devono poter processare usando
gli stessi parametri. Se sono due polimeri che si processano usando parametri molto
diversi, non si riesce ad ottenere il risultato finale in quanto si impostano i parametri per
elettrospinnare un polimero o l’altro, non si possono spinnare contemporaneamente.
Le fibre che si ottengono possono essere anche cave usando aghi coassiali, ovvero ci sono
due aghi uno interno all’altro (ago dove dentro c’è una struttura vuota). Possono essere
usati, nel caso in cui le due cavità sono separate da una membrana, anche per produrre
fibre bicomponenti con la shell fatta di un materiale e il core fatto di un altro materiale. Le
fibre bicomponenti sono molto usate nel rilascio di farmaci.
3 tipi di aghi per ottenere 3 differenti morfologie.
All’aumentare della tensione aumentano le cariche sulla soluzione polimerica. Quando queste
superano la tensione superficiale si forma il cono di Taylor e il getto. Il getto ha dimensioni
abbastanza grandi (come 500μm, riportato nell’immagine) rispetto alle dimensioni nanometriche
delle fibre che si ottengono. Questo dipende dal fatto che nel processo dalla formazione del getto
alla raccolta nel collettore il getto sarà sottoposto a una serie di instabilità che portano a due
fenomeni: evaporazione del solvente e assottigliamento della fibra.
Si può utilizzare un unico ugello o più ugelli in parallelo. Gli ugelli in parallelo servono per:
1. Spinnare lo stesso materiale, quindi andare a coprire un’area maggiore del collettore per
velocizzare il sistema;
2. Depositare diversi materiali, ottenendo fibre di diversi materiali.
ZONE DEL GETTO
Una volta che si forma il getto, questo è sempre sottoposto alla presenza di cariche elettriche.
Quando le cariche elettriche diventano più alte delle forze di coesione del getto, questo si divide in
più getti. Ogni singolo getto ha più o meno lo stesso diametro e la stessa carica e andrà a deporsi
sul substrato seguendo la propria zona di instabilità. Ogni getto si divide in più getti e depone,
seguendo la propria zona di instabilità, sul collettore. Se si impostano correttamente i diametri, si
dovrebbe ottenere la deposizione di fibre che hanno diametri omogenei (distribuzione di diametri
omogenea).
9
Palladino/Cucco
28 Bionanotecnologie (Carmagnola)
05/05/2022
Quando avviene l’assottigliamento, sempre perché soggetto alle cariche elettriche, il getto inizia
ad avere una zona di instabilità, come riportato nella slide. In questa zona, il getto inizia a
descrivere traiettorie a spirali crescenti. In questa fase, in cui il getto è sottoposto a queste spirali
crescenti, esso si assottiglia sempre di più e continua l’evaporazione del solvente.
Alla fine di queste zone di instabilità si ha il collettore, quindi il
punto in cui le fibre vengono raccolte.
In funzione della distanza in cui il collettore viene posizionato ci
si può trovare in una di queste zone:

Se si è troppo vicini alla punta, le fibre che si depositano
sono grandi perché non sono state ancora stirate
abbastanza dalla tensione e il solvente non è
completamente evaporato. L’incompleta evaporazione
del solvente comporta che le fibre vadano poi ad
appiattirsi e a perdere la loro struttura tubolare che le
caratterizza. Si ottengono i cosiddetti nastri.
ZONA DI RACCOLTA – COLLETTORE
Il collettore può essere:


Piano, quindi portare alla deposizione di fibre random, ovvero matasse di fibre
disorganizzate. La deposizione dell’electrospinning può essere orizzontale o verticale.
Quando si pensano verticalmente, si ha la siringa posizionata in verticale posizionata sulla
pompa che ha il generatore e il collettore è posto in orizzontale. In ogni caso, le due
configurazioni hanno la stessa funzione e portano agli stessi risultati (vantaggi e svantaggi
più pratici).
Per ottenere invece fibre allineate si possono usare più metodi:
o Collettore cilindrico messo in rotazione. In questo caso le fibre seguono la rotazione
e si allineano. In questo caso si deve impostare la velocità di rotazione del cilindro,
che di solito sono nell’ordine delle centinaia di giri al minuto fino a circa 5000 rpm.
o Aste metalliche parallele. Se le due aste sono entrambi conduttrici e sono collegate
alla tensione, le fibre tendono a fare ponte tra le due aste e quindi si allineano.
Rispetto alle aste, si possono mettere anche sistemi circolari paralleli e anche in
questo caso le fibre tendono a fare ponte tra i due sistemi, utilizzare due anelli. Il
parametro da impostare, in questo caso, è la distanza tra i due elementi che deve
essere tale da garantire effettivamente che le fibre si dispongano a ponte e quindi si
allineino, in ogni caso esiste un valore soglia di distanza oltre la quale le fibre si
rompono (per fare ponte si stirano troppo).
È possibile effettuare anche delle strutture gerarchiche, ovvero andare a combinare più tecniche.
10
Palladino/Cucco
28 Bionanotecnologie (Carmagnola)
05/05/2022
Nel caso riportato la struttura gerarchica è un filo micrometrico formato da tante fibre
nanometriche. Questa struttura si ottiene partendo dalla deposizione di fibre parallele su due
collettori circolari messi uno vicino all’altro parallelamente. Quindi, per prima cosa le fibre si
orientano tra i due collettori. Una volta che sono state raccolte le fibre parallele, uno dei due
supporti viene messo in rotazione. Questo fa sì che si attorciglino le fibre che si sono appena
ottenute. Quello che si ottiene è un filo del diametro di 4.7 μm che in realtà è composto da fibre
nanometriche attorcigliate, l’effetto ottenuto è quello del gomitolo di lana.
La struttura è gerarchica perché ha dimensioni micro e nano metriche.
DIFETTI DI FILATURA
I difetti principali che si ottengono quando si processa un polimero con electrospinning sono:



Beads: i più comuni, sono dei
rigonfiamenti all’interno della fibra. Per
cui la fibra non è omogenea ma in alcune
parti è rigonfiata quindi c’è una
deposizione di materiale maggiore.
Nastri: le fibre deposte non mantengono
la loro struttura circolare perché quando
vanno a contatto con il collettore è
presente ancora della soluzione, questo
fa sì che il materiale non è
completamente solidificato e le fibre
tendono ad appiattirsi e a non mantenere la loro forma circolare.
Difetti superficiali: microfibre che si inseriscono tra le altre fibre, con effetto ragnatela.
Teoricamente con l’electrospinning si vuole ottenere fibre prive di difetti, omogeneamente
distribuite dal punto di vista dei diametri, distribuzione molto stretta, molto vicina al valore medio.
Cosa influenza la presenza o meno degli effetti e le dimensioni che si ottengono?
L’electrospinning è un processo molto complesso in cui entrano in gioco molte variabili che
devono essere combinate nel modo corretto al fine di ottenere una membrana nanostrutturata
con le caratteristiche richieste.
11
Palladino/Cucco
28 Bionanotecnologie (Carmagnola)
05/05/2022
I parametri si possono dividere in due grandi categorie:
1. Parametri di sistema: sono legati principalmente al polimero e al solvente (soluzione
polimerica)
a. Peso molecolare;
b. Struttura del polimero (lineare o ramificato);
c. Proprietà della soluzione (viscosità, conducibilità, tensione superficiale).
2. Parametri di processo: sono legati al sistema di electrospinning
a. Potenziale elettrico applicato;
b. Distanza tra ago e collettore;
c. Flusso della soluzione polimerica impostato nella pompa, ci dice quanta ne esce
all’ora;
d. Parametri ambientali (temperatura, umidità, velocità di aspirazione dell’aria nella
camera o in presenza di materiali tossici o per facilitare l’evaporazione del
solvente), esistono sistemi dove il processo avviene in una cappa chiusa per
controllarli perché influenzano tantissimo il processo;
e. La movimentazione dello schermo di raccolta, collettore (presente solo in
determinate situazioni), movimento di collettore tipo cilindro rotante o sistemi che
permettono al collettore di muoversi per rivestire aree più grandi. Anche nel caso di
collettori piani: possibile averli che si muovono per collezionare in modo
omogeneo, anche di spessore finale di membrana, il collettore.
EFFETTI DEI PARAMETRI DI SISTEMA: legati alla soluzione polimerica
Molto spesso legati tra loro, concentrazione e viscosità, per esempio.




Concentrazione: esiste una concentrazione minima al di sotto della quale non è possibile
avere processo di electrospinning ma si ottiene un processo di electrospray dove anziché
depositare fibre continue sul collettore, si ha un processo discontinuo che prevede
deposizione di particelle disperse più o meno omogeneamente. Limite superiore: limite
oltre il quale la soluzione è eccessivamente concentrata e non si riesce a far partire
direttamente il processo (polimero troppo pesante da far partire il getto), si evapora il
solvente, si forma una crosta di polimero sull’ugello e il processo si blocca. Dunque troppo
viscosa per garantire un processo continuo perché nel momento in cui evapora il solvente,
il polimero resta attaccato all’ago e si crea un tappo all’uscita dell’ugello.
Viscosità: molto simile alla concentrazione. Livello soglia che permette di ottenere
electrospinning: viscosità troppo basse non si formano fibre continue, mentre a viscosità
troppo elevate il getto polimerico ha difficoltà a formarsi. Spesso è correlata alla
concentrazione.
Tensione superficiale: dipende principalmente dal solvente. Se si riduce, solitamente si
riducono i difetti perché la formazione del cono di Taylor è più omogenea. Se si ottengono
tensioni superficiali elevate, il getto non è stabile e si possono formare difetti come i beads.
Conduttività: dipende dal tipo di polimero e dal tipo di solvente. Rispetto alla tensione
superficiale, può essere modificata aggiungendo, ad esempio, sali in soluzione.
Aumentando la conduttività della soluzione, questa sarà più soggetta alla tensione che si
12
Palladino/Cucco
28 Bionanotecnologie (Carmagnola)
05/05/2022
sta imponendo e quindi il filo si assottiglia di più, ottenendo dunque fibre più fini. Se è
troppo alta o troppo bassa si formano fasi di instabilità, quindi dei difetti.
EFFETTI DEI PARAMETRI DI SISTEMA: proprietà del polimero


Peso molecolare: a parità di materiale, il peso molecolare influenza la viscosità, la tensione
superficiale, la conduttività. In generale, si predilige per il processo di elettrofilatura
polimeri con pesi molecolari abbastanza elevati. Questo deriva dal fatto che pesi
molecolari maggiori implicano il fenomeno di entanglement, ovvero degli attorcigliamenti
della catena che permettono di ottenere un getto stabile, quindi un processo continuo e
stabile con la formazione di meno difetti. Dunque, a parità di polimero, si prediligono
polimeri con pesi molecolari più alti.
Struttura del polimero: si preferiscono polimeri lineari piuttosto che ramificati. Visto che
c’è una serie di parametri da impostare, sia di sistema sia di processo, se si deve processare
un polimero ramificato, andando a variare gli altri parametri si riesce comunque ad
ottenere una produzione di fibra omogenea e stabile anche con strutture polimeriche che
non sono del tutto adatte per questa tecnica di electrospinning.
EFFETTI DEI PARAMETRI DI PROCESSO



Voltaggio: esiste un valore minimo sotto al quale non si ottengono fibre continue, il
processo continuo di electrospinning. Esiste dunque un voltaggio minimo al di sopra del
quale le fibre possono formarsi. Aumentando il voltaggio al di sopra della soglia minima, le
fibre mostrano inizialmente diametri progressivamente minori (in quanto crescono le forze
repulsive all’interno del getto che ne favoriscono l’assottigliamento). Ad alti voltaggi si
possono avere effetti di instabilità, che si riscontrano in fibre non omogenee (distribuzione
dei diametri delle fibre molto ampia) e presenza di beads. Alcuni autori hanno evidenziato
che ad alti voltaggi si può avere un aumento dei diametri causato dalla maggiore quantità
del getto eiettata.
Flusso: velocità impostata dalla pompa, di fuoriuscita della soluzione. Influenza la velocità
del processo e il diametro delle fibre. Flussi maggiori: tempi di fuoriuscita maggiori ma
comportano anche diametri di fibre maggiori. A bassi flussi, il processo è più lento (tempi di
produzione più bassi) ma si ottengono fibre più piccole (meno materiale che esce
dall’ugello) in quanto ciò consente l’evaporazione del solvente prima che le fibre
raggiungano il collettore. Se il flusso è eccessivo, fibre più grandi ma vi è il rischio che non
tutto il solvente evapori nel tratto tra ago e collettore (fenomeno dei nastri) o comunque
con difetti (beads). Il diametro delle fibre e i pori delle membrane elettrofilate crescono al
crescere del flusso.
Distanza della punta del collettore: Stessa cosa è la distanza tra siringa e collettore,
maggiore è la distanza più si ottengono fibre sottili, se troppo distante si ottengono fibre
discontinue, se collettore troppo vicino alla punta dell’ago fibre più grandi con rischio di
presenza ancora del solvente: formazione di nastri poiché il materiale non è indurito, può
adattarsi e tende ad appiattirsi. Esiste una distanza minima al di sotto della quale le fibre
non possono formarsi perché il solvente non ha tempo di evaporare.
13
Palladino/Cucco
28 Bionanotecnologie (Carmagnola)
05/05/2022
TABELLA RIASSUNTIVA
Ultimi tre parametri dovuti alla soluzione polimerica.
Per ognuno di questi parametri un range dove abbiamo un processo di electrospinning stabile per
ottenere fibre stabili, fibre più o meno grandi; al di fuori non è più stabile e non riesco dunque più
ad ottenere fibre omogenee e prive di difetti. Poi ci sono valori soglia inferiori e superiori che
inibiscono, limitano il processo e ne impediscono la buona riuscita.
POLIMERI (sono i materiali processati)
I polimeri usati nell’electrospinning sono diversi:


Polimeri sintetici: possono essere processati sia con l’electrospinning normale da soluzione
ma anche con l’electrospinning da fuso (melt-electrospinning) e il melt-electro-writing
(electrospinning a cui è associata la morfologia specifica dettata dal disegno CAD).
o Poliammidi
o Poliolefine
o Poliestere
o Fibre di aramide
o Poliacrilati
Polimeri naturali: processati solo con l’electrospinning normale in quanto si usano
soluzioni, spesso acquose, e non possono essere trattati termicamente perché andrebbero
incontro a degradazione e denaturazione con conseguente perdita delle proprietà.
o Proteine (collagene, fibrina ecc.)
o Polisaccaridi (chitosano p.e.)
o Polipeptidi (gelatina, seta)
14
Palladino/Cucco
28 Bionanotecnologie (Carmagnola)
05/05/2022
Alla soluzione polimerica possono essere ad esempio aggiunte particelle inorganiche (oro, argento
ma anche applicazioni sull’osso inserendo internamente idrossiapatite) ottenendo così scaffold
compositi.
APPLICAZIONI (anche non biomedicali o legate a quest’ultime)





Rinforzo per materiali compositi
Filtrazione
Si sfrutta il fatto di avere delle porosità tali che permettono di far passare ad esempio aria
(nel caso di filtri per aria compressa), ma sono così piccole da bloccare eventuali impurità o
residui di olii o di processi che hanno dimensioni piccoli ma non così piccoli da passare oltre
le membrane elettrospinnate.
Applicazioni come abbigliamento protettivo
Applicazioni ottiche ed elettriche
Applicazioni biomedicali
o Si possono usare per la realizzazione di protesi intere, come nei graft vascolari in cui
il polimero è elettrospinnato su un collettore cilindrico la cui dimensione esterna è
pari al lume interno del vaso.
o Oppure le membrane elettrospinnate possono essere usate come coating di altri
dispositivi, altre protesi, al fine di migliorarne l’integrazione con i tessuti, come nel
caso delle protesi d’ernia che sono reti macroscopiche in polipropilene che possono
essere poi rivestite con electrospinning.
o Nell’ingegneria tissutale è ampiamente utilizzata nella realizzazione di scaffold
perché la struttura fibrosa ottenuta con l’electrospinning mima la struttura fibrosa
delle componenti della matrice extracellulare. Inoltre, non tutte le morfologie delle
matrici extracellulari sono uguali, alcuni tessuti hanno delle strutture allineate e con
la tecnica dell’electrospinning si possono allineare le matrici extracellulari con
determinate topografie come quella del cuore, del tessuto nervoso o dei muscoli.
o Possono inoltre essere usate per la creazione di patch per la cura delle ferite, cerotti
e bande. Anche in questo caso viene sfruttata soprattutto la struttura microporosa
che permette un buono scambio di essudati e di nutrienti.
o Possono essere usati come sistemi di rilascio di farmaci o nella cosmetica per la
realizzazione delle maschere per la pelle.
o Con la pandemia, si è usata per la realizzazione di nuovi tessuti per le mascherine.
15
Casari/Ferraro
29 Bionanotecnologie (Ciardelli)
05/05/2022
BioMEMS (Biological Micro-Electro-Mechanical Systems)
In questa sezione si parlerà dell’applicazione delle nanotecnologie a sistemi biologici, per
progettare sistemi ingegnerizzati, ovvero si parlerà di sistemi biologici Micro-Elettromeccanici
(BioMEMS). Ci si occuperà principalmente di sensori, cioè di rilevazione e riconoscimento di
molecole e/o fenomeni biologici a scopo terapeutico e prevalentemente diagnostico.
Un biosensore è un sensore che ha come interfaccia incaricata di rilevare il segnale (variazioni
nell’ambiente circostante) una molecola biologica. In analogia con i biosensori alla macroscala, i
bioMEMS sono dotati di elementi di riconoscimento che in questo caso sono, appunto, delle
molecole. Le nanotecnologie hanno il pregio di portare il dimensionamento del sensore su scala
molecolare: non solo l’elemento sensibile è su scala molecolare, ma lo è tutto il sensore. I sensori
possono essere suddivisi secondo la classe della molecola che costituisce la parte sensibile del
sistema:
-
-
-
Bioriconoscimento enzimatico → ad esempio, il sensore per la misura della glicemia
contiene glucosio-ossidasi (enzima che converte il glucosio in acido gluconico) e mediante
una reazione redox può essere rilevata tramite l’interfaccia del sensore e poi il trasduttore
dà il segnale.
Bioriconoscimento con anticorpo, dunque immunologico (detti anche immunosensori)
Metodi utilizzanti DNA per il riconoscimento dei geni → hanno permesso di riconoscere
geni e sequenziare il genoma, dando un forte contributo allo sviluppo di nuove terapie →
ci si soffermerà principalmente su questi
Metodi di riconoscimento che utilizzano cellule e tessuti come elementi sensibili di sensori
→ utilizzati, ad esempio, per testare la tossicità di una sostanza.
In tutti questi sistemi si sfrutta il fatto che la natura ha sviluppato queste modalità di
riconoscimento selettivo: l’enzima riconosce il suo substrato, l’anticorpo riconosce il suo antigene,
una singola catena di DNA riconosce la sua catena complementare.
Rilevamento del DNA – PCR
La PCR è una tecnica che consente di ottenere rapidamente
milioni di molecole identiche del DNA che si vuole
analizzare/riconoscere,a partire da quantità estremamente
ridotte dell’acido nucleico. Questo è possibile perché il DNA è
una molecola in grado di replicarsi.
Il DNA ha una doppia elica caratterizzata da basi nucleotidiche
(citosina, guanina, timina e adenina) che si accoppiano e si
riconoscono tra loro in maniera selettiva: la citosina riconosce
sempre la guanina e l’adenina riconosce sempre la timina.
Quando si ha una sequenza di DNA e si conosce la disposizione
delle basi lungo la catena fosfodiesterea, automaticamente si
conosce anche la sequenza di basi della catena subcomplementare.
La PCR parte da un campione di DNA incognito e tramite
nucleotidi + primers (iniziatori che servono per far iniziare la
polimerizzazione) + polimerasi (enzima che catalizza la
1
Casari/Ferraro
29 Bionanotecnologie (Ciardelli)
05/05/2022
riproduzione del DNA) + tampone + opportuni tubetti e grazie a dei cicli termici produce tante
copie del DNA iniziale.
Come si osserva nella figura a lato, il processo prevede di scaldare la doppia elica di DNA alla
temperatura di denaturazione, per cui le due catene si separano, in quanto sono tenute insieme
da legami a idrogeno, che ad alta temperatura non hanno motivo termodinamico di esistere.
Si vogliono, quindi, replicare le due catene, facendo due copie della prima molecola. Per prima
cosa si utilizzano dei primer/iniziatori, ovvero dei piccoli inneschi complementari a una parte delle
sequenze del DNA da replicare, che servono a far iniziare il lavoro della polimerasi. Si aggiunge,
poi, la polimerasi di un organismo termoacquatico, che consente di lavorare a temperature più
elevate rispetto a quelle raggiunte dalla polimerasi presente nel corpo umano, che invece lavora a
37°C (nella PCR si lavora a temperature più elevate di quella fisiologica). La polimerasi consente la
replicazione del DNA con la crescita delle due catene. Alla fine si ottengono due copie della
molecola iniziale sfruttando la complementarietà delle basi.
Richiami: il DNA
o Il DNA (acido desossiribonucleico) è un acido nucleico che
contiene le informazioni genetiche, trasmissibili da
generazione a generazioni, necessarie alla biosintesi di
RNA e proteine
o Il DNA è una doppia catena polinucleotidica, antiparallela,
orientata, complementare e spiralizzata
o Il DNA è un polimero organico costituito da monomeri
chiamati nucleotidi
o Ogni nucleotide è costituito da uno zucchero (il
desossiribosio), un gruppo fosforico e una base (adenina,
guanina, citosina e timina)
o Il DNA non è quasi mai presente sotto forma di singolo
filamento, ma come una coppia di filamenti saldamente
associati tra loro per formare una struttura definita doppia
elica
o Ogni nucleotide è costituito da uno scheletro laterale, che
ne permette il legame covalente con i nucleotidi adiacenti,
e da una base azotata, che instaura legami idrogeno con la
corrispondente base azotata presente sul filamento
opposto (la striscia arancione in figura è un’alternanza di zucchero e fosfato ripetuti)
Basi azotate:
o basi a un anello → basi pirimidiniche (citosina e timina)
o basi a due anelli → basi puriniche (guanina e adenina) a due anelli
Nell’accoppiamento si ha sempre una purina accoppiata a una pirimidina, con tre legami a
idrogeno tra citosina e guanina e due legami a idrogeno tra adenina e timina.
2
Casari/Ferraro
29 Bionanotecnologie (Ciardelli)
05/05/2022
La PCR (Polymerase Chain Reaction, reazione a catena della polimerasi) è una tecnica che consente
di ottenere rapidamente milioni di molecole identiche di DNA a partire da quantità estremamente
ridotte dell’acido nucleico (stampo). La PCR è una reazione di amplificazione in vitro di uno
specifico frammento di DNA per mezzo di una DNA polimerasi. Si basa sulla esecuzione ciclica
ripetuta più volte di tre fasi:
1. Denaturazione (denaturation) della doppia elica del DNA stampo in due singole eliche alla
temperatura di 95°C → separazione delle due catene
2. Ibridazione (annealing) degli inneschi oligonucleotidici (primer) alla sequenze di DNA a
singola elica a essi complementari e localizzati alle estremità del frammento bersaglio (a
una temperatura compresa tra i 50°C e i 70°C) → aggiunta dei primer, avviene a
temperature inferiori rispetto al primo step
[Più semplicemente: La denaturazione del DNA è reversibile. Il processo attraverso il quale
si ricostituisce la doppia elica del DNA a partire da due filamenti singoli è detto reazione di
ibridazione. Perché vi sia ibridazione, due filamenti devono presentare sequenze di
nucleotidi complementari.]
3. Sintesi (extension) del DNA complementare allo stampo a una temperatura compresa tra
68 e 72°C, utilizzando come enzima il Taq DNA polimerasi (enzima termoresistente
ottenuto dal microorganismo termofilo Termophylus aquaticus) → aggiunta della
polimerasi, che estende la catena, partendo dai primer e copiando ciascuna catena
Al termine si ottengono due copie della stessa molecola. Il processo viene ripetuto tante volte,
ottenendo tante copie.
La PCR ha una storia aneddotica. È stata scoperta da Kary Banks Mullis (Lenoir, 28 dicembre 1944),
un biochimico statunitense, vincitore del Premio Nobel per la Chimica nel 1993. Nel suo libro
“Ballando nudi nel campo della mente” racconta di come, grazie all’LSD, abbia visto i singoli
polimeri che si replicavano e quindi di come abbia scoperto la PCR.
Per capire come funziona il processo di amplificazione dal punto di vista numerico della quantità di
molecole che si riescono a produrre, si fa l’analogia con la storia dell’invenzione degli scacchi. Un
re ricco e annoiato chiamò il ciambellano chiedendogli di inventare un passatempo. Il ciambellano
tornò con una scacchiera e il re volle ricompensarlo. Il ciambellano disse di accontentarsi di una
semplice richiesta: un chicco di riso sulla prima casella della scacchiera e un numero di chicchi di
riso doppio (rispetto alla casella immediatamente precedente) su ogni casella successiva. Il re
accettò, per poi accorgersi solo alla fine che aveva promesso l’impossibile. Il numero dei chicchi di
riso aumenta in modo esponenziale lungo le caselle
della scacchiera. Bastano 63 passaggi “da una casella
all’altra” per arrivare al numero astronomico di ben
18.446.744.073.709.600.000 di chicchi
complessivamente richiesti!
Questa è la stessa crescita esponenziale delle molecole
di DNA che si ha quando si fa la reazione della PCR.
A cosa serve replicare il DNA?
Ad esempio, un campione di DNA rilevato in chimica
forense su una scena del delitto, che è un campione molto piccolo, si può replicare tramite PCR in
modo da poterlo analizzare e trattare.
Anche nel progetto genoma si parte da piccoli quantitativi di DNA della Drosophila che può essere
moltiplicato tante volte e poi sequenziato utilizzando il quantitativo di cui si ha bisogno.
3
Casari/Ferraro
29 Bionanotecnologie (Ciardelli)
05/05/2022
Vedremo ora nel dettaglio i fenomeni chimico-biologici che sono coinvolti nell’amplificazione del
DNA tramite PCR.
Denaturazione
Il punto di partenza è il DNA che si trova nella classica conformazione a doppio filamento in cui i
due filamenti (strands) sono tenuti assieme dai legami a idrogeno formati tra le basi azotate
complementare (A→T, due legami a idrogeno; G→C, tre legami a idrogeno).
Per replicare il DNA, le due catene vanno separate. Nelle
cellule del nostro organismo è presente un enzima,
l’elicasi, che srotola la catena, ma per la PCR si utilizza un
meccanismo più semplice: si alza la temperatura,
passando da doppia elica a due singole eliche. Si passa da
struttura ordinata a doppia elica a due singole eliche, che
si possono considerare come due catene polimeriche che
si mettono in soluzione in disordine, formando strutture
random coil. Si passa da uno stato nativo a uno
denaturato. Il processo è reversibile: abbassando la
temperatura si riforma la doppia elica. Sperimentalmente
si può misurare questo fenomeno in due modi:
-
Misurando la viscosità delle soluzioni di DNA: la
denaturazione è accompagnata da una netta
diminuzione della viscosità della soluzione (si
pensi a una soluzione con tanti bastoncini e una in
cui ci sono delle palline: la soluzione meno viscosa
sarà quella con le palline)
Misurando l’assorbimento delle soluzioni di DNA: la denaturazione aumenta del 40%
l’assorbimento a 260 nm
-
Quando si parla di assorbimento ci si riferisce a questo:
si supponga di avere un recipiente con la soluzione di molecole di
DNA, di far passare una luce di intensità 𝐼0 attraverso la soluzione e
di andare poi a leggere con un fotodiodo l’intensità 𝐼 che esce: si
avrà un assorbimento della radiazione e dunque 𝐼 < 𝐼0 .
L’assorbanza si definisce come:
𝐴 = − log
𝐼
=𝜀∙𝑏∙𝐶
𝐼0
𝐼
Dove 𝐼 è detta trasmittanza, 𝐶 è la concentrazione della soluzione, 𝑏 è lo spessore del recipiente
0
(più spesso è il recipiente, più molecole incontrano la luce e quindi più radiazione viene assorbita),
𝜀 è l’assorbività molare, ovvero una caratteristica della molecola.
La denaturazione aumenta l’assorbanza 𝐴 del 40% perché scaldando si passa da una situazione
con doppie eliche a una con singole eliche e dunque cambia 𝜀, ovvero cambia quanto la singola
molecola/mole di DNA assorbe. Il tutto avviene a 260 nm, che ricorda l’assorbanza all’UV del
benzene (256 nm). Nel DNA sono le basi nucleotidiche ad assorbire la radiazione. Nella
configurazione a doppia elica le basi si trovano all’interno e si riparano l’un l’altra, mentre nella
4
Casari/Ferraro
29 Bionanotecnologie (Ciardelli)
05/05/2022
configurazione denaturata le basi sono più disponibili ad
assorbire i raggi che passano attraverso la soluzione, e quindi
l’assorbanza aumenta.
Si può misurare, ad esempio, l’assorbanza in funzione della
lunghezza d’onda. Dal grafico a destra si può osservare come
un DNA denaturato, a 260 nm, avrà un’assorbanza molto più
alta rispetto al DNA nativo a doppia elica.
Si può graficare
l’assorbanza anche in
funzione della
temperatura (grafico a sinistra).
Il DNA a doppia elica parte con un’assorbanza bassa, poi
c’è un intervallo di temperatura relativamente stretto
nel quale si ha tutto l’aumento di assorbanza, che
corrisponde alla denaturazione di tutte le molecole di
DNA. Questo è il tipico andamento di una transizione
termodinamica del secondo ordine, tipo la Tg.
Si può definire 𝑇𝑚 come valore in cui si ha la metà delle molecole denaturate, si trova a metà tra la
temperatura di inizio e di fine denaturazione, ed è anche detta temperatura di fusione del DNA
(temperatura alla quale il 50% di una certa sequenza nucleotidica è ibridizzata al suo filamento
complementare). La parola “fusione” si accetta anche se è usata impropriamente, dato che non si
ha un passaggio da uno stato solido a uno stato liquido, ma comunque si ha un passaggio da uno
stato ordinato a doppia elica a uno disordinato a singola elica/random coil.
La 𝑇𝑚 dipende da diversi fattori:
-
-
tipo di basi che si hanno nella sequenza, dato che per ogni coppia G-C si hanno 3 legami a
idrogeno e dunque è richiesta più energia per rompere questi legami; ci si aspetta, quindi,
che un DNA con tante coppie G-C abbia una temperatura di fusione più alta rispetto a un
DNA ricco di coppie A-T
ambiente chimico
concentrazione di sali (i cationi monovalenti come ioni Na+ stabilizzano la doppia elica, i
denaturanti chimici come formamide o urea la destabilizzano)
grado di omologia
lunghezza della sonda
Conoscere la temperatura di fusione 𝑇𝑚 è fondamentale perché bisogna operare a una
temperatura un po’ più alta di quella di fusione per poter denaturare il DNA. La denaturazione del
DNA, infatti, si fa a 95°C perché si è sicuri che a tale temperatura, benché dipenda dalle basi, si sia
superata la 𝑇𝑚 , compresa al massimo tra 75°𝐶 e 90°𝐶, e che si riesca a separare qualunque catena
di DNA.
Ibridazione (annealing)
Dopo la denaturazione si procede con l’annealing, che è il fenomeno contrario: si vuole evitare che
la doppia elica si riformi tutta, ma si deve permettere l’accoppiamento (ibridazione) dei primer
all’inizio della catena. Si abbassa, dunque, la temperatura da 95°𝐶 a 50°𝐶 − 70°𝐶, scegliendola
opportunamente (temperatura di annealing, 𝑇𝑎 ). Generalmente si utilizza 𝑇𝑎 = 𝑇𝑚 − 5°𝐶, dunque
5
Casari/Ferraro
29 Bionanotecnologie (Ciardelli)
05/05/2022
di poco inferiore a quella di fusione, anche se spesso l’utilizzo diretto della stessa temperatura di
fusione, dunque 𝑇𝑎 = 𝑇𝑚 , può portare ad avere ottime rese nella reazione di PCR.
Nel mettere a punto le reazioni di PCR si possono seguire essenzialmente due tipi di criteri
riguardo alla Ta:
-
-
tenere 𝑻𝒂 costante durante i cicli → dalla temperatura di denaturazione (molto sopra la
𝑇𝑚 ) in cui si separa tutto, si abbassa fino quasi alla 𝑇𝑚 , i primer si accoppiano ma non si
ricrea tutta la doppia elica
𝑻𝒂 che diminuisce ciclo dopo ciclo (touch-down) → permette di avere all’inizio cicli più
stringenti evitando errori, dunque si opera all’inizio a temperature un po’ più alte, quando
l’accoppiamento avviene solo se c’è una forte affinità tra primer e stampo. Una volta che si
iniziano ad avere tante copie si può anche diminuire la temperatura. I cicli più stringenti
sono tali da promuovere solo l’amplificazione di frammenti specifici rendendo instabili
eventuali annealing dei primer a sequenze di DNA non perfettamente complementari.
Bisogna giocare sul tempo: non deve essere troppo lungo per evitare accoppiamenti non voluti e
sfavorire appaiamenti a stampi con bassa complementarietà. Di solito si utilizzano tempi
dell’ordine 𝑡 = 30𝑠 o anche meno.
Sintesi
I primer (inneschi) sono necessari perché la DNA-polimerasi non è in grado di iniziare una catena
da zero. In natura, l’RNA polimerasi crea gli inneschi che poi fanno partire la DNA polimerasi;
infine, tali inneschi vengono sostituiti dal DNA. Mentre l’RNA polimerasi se commette errori fa una
coppia di RNA che poi morirà, la DNA polimerasi non può sbagliare a fare la copia del DNA (si
incorrerebbe in mutazioni, cancro, malattie genetiche, ecc.). Per questo motivo, la DNA-polimerasi
controlla sempre che la precedente coppia di basi creata sia giusta (attività correttrice) e di
conseguenza, se non è presente la prima coppia di basi, non comincia la sua attività. I
primer/inneschi servono proprio per dare inizio alla polimerizzazione.
Quindi, tutto inizia con l’innesco, dopo di che arriva la DNA-polimerasi termostabile e inizia
l’estensione nelle due direzioni. In natura, una catena si estende nella direzione “giusta”, mentre
quella antiparallela viene girata a pezzetti e replicata, e poi i vari pezzetti, i frammenti di Okazaki,
vengono riuniti insieme. In questo caso, il meccanismo è più semplice: una polimerasi va in un
senso e un’altra va nell’altro senso, arrivando a copiare la catena.
Mentre nell’esempio della scacchiera, alla n-esima casella si hanno 2𝑛 chicchi di riso, nella PCR il
processo non è così efficiente, ma c’è un errore e la legge di crescita è:
𝑁 = (1 + 𝑒)𝑛
dove 𝑁 è il numero di copie amplificate al termine della reazione, 𝑒 è detta efficienza
dell'amplificazione e spesso si ha 0.7 < 𝑒 < 0.8, 𝑛 è il numero di cicli di amplificazione.
Esempio Kahoot:
𝑁 = (1 + 0.8)10 ≅ 357 → si ottengono 357 copie
6
Casari/Ferraro
29 Bionanotecnologie (Ciardelli)
05/05/2022
Il grafico in figura mostra la crescita
esponenziale del numero di molecole di DNA
prodotto (verdi) tramite PCR a partire da una
molecola campione di DNA (blu). Ai primi
passaggi non si hanno delle copie esatte del
segmento da amplificare. Si parte dalla
separazione delle due catene (doppia elica da
amplificare) e si mette il primer che allunga la
catena finché trova nucleotidi. Le prime copie
sono imperfette, hanno delle “spenzolature”
laterali. Si può osservare meglio nella figura qua
sotto.
Schema di funzionamento della PCR
FIRST CYCLE: Si ha il frammento di DNA da amplificare e nello specifico si vuole amplificare la
porzione in grigio chiaro (non quella colorata di nero). Si separano le due catene, si mettono i
primer (verde e rosso) che vanno a cercare la sequenza complementare, che sarà all’inizio delle
porzioni grigie. La freccetta del primer indica la direzionalità della catena (5’ e 3’; l’estremità 3’ è
quella dove si attaccano i nucleotidi); i due primer puntano in direzioni opposte. La polimerasi
parte e si ha la sintesi, che non si ferma dove finisce il grigio in quanto ci sono altre basi (la
polimerasi non è consapevole del fatto che si voglia replicare solo la parte in grigio). La polimerasi
prosegue finché non finisce la catena stampo in entrambi i lati. Le 4 molecole ottenute non sono
repliche della porzione che si vuole replicare.
SECOND CYCLE: A questo punto si fa una nuova denaturazione e si ottengono 4 molecole di DNA a
catena singola, si riutilizzano i primer e si fa una nuova amplificazione. Nel primo passaggio si
avevano 21 = 2 molecole, mentre ora, al secondo passaggio, 22 = 4 molecole che però sono
diverse tra loro in quanto differiscono per i pezzettini alle estremità.
THIRD CYCLE: Si cominciano ad avere delle molecole che sono esattamente delle copie della
porzione che si voleva amplificare, senza i pezzettini in più. Si hanno ora 23 = 8 molecole, ma in
realtà quelle di effettivo interesse sono solo 2.
7
Casari/Ferraro
29 Bionanotecnologie (Ciardelli)
05/05/2022
Questo spiega perché all’inizio non si hanno le copie della porzione da amplificare, ma a mano a
mano che si va avanti coi cicli, la quantità aumenta secondo la legge esponenziale vista prima (𝑁 =
(1 + 𝑒)𝑛 ).
Le molecole copia dei segmenti grigi, sono il prodotto della PCR. Le altre molecole, che al
proseguire dei cicli saranno presenti in numeri molto bassi sono scarti che non sono di interesse.
Utilizzi della PCR
La PCR può essere effettuata sul DNA genomico, cioè si prende una cellula, si estrae il DNA, lo si
amplifica e successivamente si sequenzia. Può servire per:
-
-
identificare un individuo (medicina legale)
identificare la presenza di un determinato microorganismo, ad es. un microorganismo
patogeno, compresi quelli più grossi come i batteri; il test molecolare per il Covid riconosce
il materiale genetico del virus, identificandolo grazie alla PCR
individuare eventuali mutazioni → si amplificano DNA diversi e poi si vanno a confrontare
clonare regioni genomiche
Nel genoma si trovano diversi tipi di sequenze:
-
gli esoni, che vengono poi tradotti in proteine
gli introni, che poi non si ritrovano nell’espressione genica
le sequenze promotrici, che indicano alla RNA polimerasi dove iniziare a trascrivere
La PCR amplifica indifferentemente tutto quando effettuata sul DNA genomico, ovvero amplifica
sia esoni, che introni, che promotori. Non si preoccupa di ciò che succede dopo, ma fa
semplicemente tante copie del DNA genomico per poi leggere le sequenze tramite dei sensori che
vedremo più avanti.
8
Casari/Ferraro
29 Bionanotecnologie (Ciardelli)
05/05/2022
Evoluzione della PCR – Reverse Transcriptase PCR
Se, invece, si vuole avere qualche informazione su cosa sta facendo il DNA in quel momento, cioè
quali geni il DNA sta esprimendo e si vogliono amplificare solo quei geni, si usa un’evoluzione della
PCR: la RT-PCR (Reverse Transcriptase PCR).
La trascrizione consiste nel passare da DNA a RNA, la trascrizione inversa è opposta: dall’RNA si
passa al DNA. Si può fare, però, sull’RNA messaggero (mRNA).
Si parte dal DNA genomico fatto
da esoni e introni, la RNA
polimerasi li trascrive tutti, ma
poi, tale RNA di prima sintesi,
matura (maturazione o splicing)
nell’RNA messaggero, ovvero
perde le sequenze introniche. A
questo punto, per amplificare
l’mRNA, lo si deve trascrivere
inversamente in cDNA (DNA
complementare).
La trasformazione in cDNA è
fondamentale per poterlo
amplificare con la PCR, perché la
PCR sull’RNA non funzionerebbe in quanto è a singola elica e perciò non vale la complementarietà.
Di fatto, quando si amplifica il cDNA, è come se si fossero amplificati solo gli esoni e quindi si
ottengono informazioni sui geni che vengono trascritti in quel momento dalla cellula. [“In quel
momento” perché magari in un’altra situazione la cellula ha un comportamento diverso. Basti
pensare all’adesione cellulare: quando una cellula è tutta schiacciata sta differenziando, quando è
un po’ meno schiacciata quando sta proliferando; in quei due diversi momenti la cellula, pur
avendo lo stesso DNA genomico, sta esprimendo geni diversi, ovvero i geni per il differenziamento
nel primo caso e quelli per la proliferazione nell’altro caso.]
Attenzione: per ora si sta solo amplificando, ovvero si sta aumentando la disponibilità di analita,
ovvero della quantità di analita da analizzare.
9
Casari/Ferraro
29 Bionanotecnologie (Ciardelli)
05/05/2022
Evoluzione della PCR – Real-time PCR
Un’altra interessante evoluzione della PCR è la real-time PCR.
PCR tradizionale → rilevazione alla fine della reazione → si amplifica andando a creare più
materiale che viene analizzato alla fine
PCR Real-Time → rilevazione mentre la reazione si sta svolgendo → si può costruire subito il
grafico che dimostra che l’amplificazione sta avvenendo in quel momento.
La Real-Time PCR Permette di osservare
l’amplificazione in tempo reale durante
la fase esponenziale (le prime fasi) della
PCR quando la reazione è meno
influenzata dalle variabili di reazione.
Come si può fare questo?
Si devono mandare dei
messaggeri/reporter (sonde) che
rimandino poi indietro un segnale che
descriva ciò che sta succedendo, ovvero
l’amplificazione o meno del segmento del DNA: deve dire se il DNA si sta replicando.
Ci sono due possibili modi:
-
Si ha il DNA denaturato, quindi si hanno le
catene singole, arriva il primer e si posiziona
sulla catena (annealing/ibridazione); oltre a
fare l’annealing del primer, si fa anche
l’ibridazione della sonda (reporter). La sonda
è una molecola di DNA a catena singola che
ha in un’estremità una molecola fluorescente
e nell’altra estremità una molecola che
spegne la fluorescenza quando sono vicine.
Queste molecole sono costruite in maniera
tale che se sono da sole stanno richiuse a
forcina, quindi tengono le estremità
(fluoroforo e quencher) vicine e sono spente.
A questo punto avviene l’ibridazione, arriva la
polimerasi e comincia la reazione di
estensione. La sequenza della sonda è corta,
quindi fluoroforo e quencher sono ancora vicini e di conseguenza la fluorescenza è spenta.
La polimerasi ha anche un’attività nucleasica, cioè non solo può sintetizzare o legare basi
nucleotidiche, ma le può anche staccare. Perciò, dato che la doppia elica è
termodinamicamente più stabile in quanto tutte le volte che a bassa temperatura si creano
legami a idrogeno, si ha un guadagno termodinamico, ovvero una situazione
energeticamente più stabile, la polimerasi deve proseguire nel suo lavoro di replicazione
del DNA. Dunque, quando la polimerasi incontra l’ostacolo della sonda, per proseguire
scalza via la sonda tagliandola a pezzetti. In questo modo, il primo nucleotide che aveva
legato il fluoroforo si stacca e si allontana dal quencher, accendendo la fluorescenza e
10
Casari/Ferraro
-
29 Bionanotecnologie (Ciardelli)
05/05/2022
permettendo di iniziare a vedere un segnale che aumenta a mano a mano che le sonde
vengono staccate dalle molecole mentre vengono fatte nuove reazioni di replicazione.
Questo è il metodo intuitivo: a mano a mano che la reazione procede si ha un aumento del
segnale.
Metodo controintuitivo. Si ha sempre
la molecola denaturata, arriva il
primer e si ibridizza. In questo caso si
inserisce un molecular beacon,
ovvero una sonda a forcina, dotata di
un fluoroforo e di un quencher, più
lunga rispetto alla sonda di prima
(usata nel metodo intuitivo). Finché
sta chiusa a forcina, la fluorescenza è
spenta, mentre quando c’è
l’ibridizzazione si accende perché il
beacon si apre, allontanando il
fluoroforo dal quencher. La
polimerasi parte e scalza via la sonda,
che si richiuderà a forcina,
spegnendo nuovamente la
fluorescenza. In questo caso, il
procedere della reazione dà una
diminuzione del segnale fluorescente
(mentre nel primo caso era il
contrario con un aumento di
fluoescenza).
➢ DOMANDA: Nel secondo caso come mai la molecular beacon non viene "smembrata” dalla
polimerasi? Solo perché è più lunga?
Sì, perché è più lunga e perché ha delle sequenze diverse, che non sono tagliabili dalla DNA
polimerasi, la quale può tagliare solo in presenza di certe sequenze nucleotidiche.
11
Furlotti/Francolini
Bionanotecnologie (Ciardelli)
06/05/2022
Abbiamo visto com’è possibile effettuare la PCR contemporaneamente monitorando il progredire
della reazione, inserendo nell’ambiente di reazione un reporter, cioè una molecola che durante la
replicazione del DNA, quindi delle molecole del template, produce un segnale leggibile.
Abbiamo visto due approcci, uno in cui il segnale aumentava, basato sulla replicazione, e uno in cui
il segnale diminuiva.
[Filmato 1] http://www.youtube.com/watch?v=kvQWKcMdyS4
[Filmato 2] http://www.youtube.com/watch?v=5FaFIvq_eAI
Questi due filmati erano per far vedere come questi metodi abbiano applicazioni di tipo analitico,
cioè si va a rilevare la presenza di uno specifico DNA, non come la PCR tradizionale che fa solo
delle copie del campione originale.
LCR: ligase chain reaction
Sempre in questo contesto, si vede una variante
della PCR tradizionale, la ligase chain reaction
(LCR); in questo approccio non si usa solo la
polimerasi, ma anche un altro enzima (coinvolto
comunque nella replicazione del DNA), che è la DNA
ligasi. Di fatto si tratta di una tecnica che serve per
rilevare la presenza di specifiche sequenze di DNA in
una miscela complessa, lo scopo non è amplificare
lo stampo, ma identificare la presenza di una
specifica sequenza, anche se di fatto quel che si fa è
un’amplificazione del materiale genetico. Si usa una
ligasi termostabile: la ligasi come enzima catalizza la
formazione di un legame fosfodiestereo tra un
ossidrile in posizione 3’ nella catena di DNA e un fosfato in posizione 5’ in un’altra catena.
Se si pensa alla DNA polimerasi la reazione catalizzata è la stessa ma in condizioni diverse, se si
parlasse di polimerasi si dovrebbe cambiare il primo disegno: la polimerasi attacca singoli
nucleotidi alla catena in crescita, quindi fa la stessa reazione ma nel disegno al posto di DNA
STRAND (catena di DNA), si avrà un singolo nucleotide e si allunga man mano la catena, la quale
avrà l’OH libero.
In questo caso la ligasi è un enzima che di fatto tappa i buchi che si formano tra due catene di
DNA, ad esempio in natura lo fa per ricucire i segmenti di DNA che sono stati sintetizzati nella
seconda fase quando si sintetizza il primer di DNA, oppure anche la catena ritardata viene
sintetizzata a pezzi (frammenti di okazaki) che la ligasi unisce.
Un altro esempio si trova in biotecnologie per unire pezzi di DNA: ad
esempio, se si ha un plasmide batterico e si vuole che esso sintetizzi
insulina invece di estrarla dal pancreas di un bovino, si prende il gene
dell’insulina e con una endonucleasi si taglia un pezzo di plasmide.
Dopodichè, questo pezzo viene riattaccato con la ligasi (parte in nero).
Quindi il batterio avrà nel suo plasmide di DNS il gene per fare
1
Furlotti/Francolini
Bionanotecnologie (Ciardelli)
06/05/2022
l’insulina, si può produrre insulina per via biotecnologica. La colla è la ligasi, le forbici sono le
endonucleasi.
Come si usa la LCR?
Il primo passaggio è come la PCR: si separano le
due catene dello stampo di DNA.
Il secondo passaggio è ancora un annealing, ma
non di primer come nella PCR (nella quale si
prendono i primer e si ibridizzano in queste due
posizioni, poi da qui parte la polimerizzazione).
Qui invece si fa l’ibridazione ma di molecole
diverse che si chiamano probe (sonda), le quali
sono abbastanza lunghe e se ne usano 4 invece
che 2 come nei primer. Le probe si devono appaiare sullo stampo lasciando soltanto un piccolo
gap che poi viene riempito dalla ligasi, che attacca insieme i due probe.
A questo punto il processo viene ripetuto tante volte, i prodotti finali non sono altro che tante
copie dei probe attaccati insieme, di fatto sono stati amplificati i probe e non i target.
Se effettivamente come risultato si ha l’amplificazione del probe significa che la ligasi ha lavorato e
si aveva sullo stampo una sequenza complementare ai probe.
Come si fa a vedere se il processo ha funzionato?
Il principio di rilevazione è basato su quegli oggettini che erano stati schematizzati
precedentemente sui probe, cioè quel rombo viola (in figura) e la pallina verde (in figura), questi
sono rispettivamente chiamati raggruppamento antigenico di cattura, il quale si lega ad un
anticorpo a sua volta legato ad una
particella magnetica, e
raggruppamento di rilevazione,
che viene riconosciuto da un
anticorpo che nel sistema di
rilevazione è legato ad un enzima
che è in grado di trasformare un
substrato da incolore a colore.
Quindi, se si vede colore vuol dire che il processo ha funzionato, perchè alla fine della reazione
l’antigene di cattura lo possiedono sia i prodotti, sia queste molecole in arancione (probe), metà
delle probe ha anche l’antigene di cattura.
Tutto ciò che si è preso si trasferisce su una matrice in fibra di vetro, che poi viene lavata bene per
rimuovere tutto ciò che non è legato. Se si sono prese anche le molecole che non hanno l’antigene
di cattura ma solo quello di rilevazione, queste vengono lavate via.
A questo punto si aggiunge sulla matrice di vetro il sistema enzima + anticorpo (cerchiato in rosso
nella figura precedente) per l’antigene di rilevazione.
2
Furlotti/Francolini
Bionanotecnologie (Ciardelli)
06/05/2022
Se la reazione ha funzionato sono state prodotte le
molecole (cerchiate in azzurro nella figura), quindi
sono sulla fibra di vetro. Si mette sulla fibra l’anticorpo
con l'enzima, poi ci si butta il substrato e si vede il
colore.
Se la reazione non ha funzionato, il colore non si vede,
perché le molecole catturate sono quelle che hanno
l’antigene di cattura, ma non di riconoscimento.
Quando ci si butta l’anticorpo, questo non trova niente
a cui legarsi, e quando viene sciacquata la matrice,
questo viene lavato via.
Riassumendo:
Si ha il template, viene denaturato, si mettono le probe che si ibridizzano affinchè le ligasi le
uniscano. Il metodo di rilevazione è un metodo che prevede che ci sia segnale solo se questo
legame è avvenuto, ovvero se ci sono molecole che contengono contemporaneamente l’antigene
di cattura e di rilevazione. Se non c’è l’antigene di cattura, con le particelle magnetiche non si può
estrarre il template dall’ambiente di reazione e non viene portato sulla fibra di vetro e quindi non
dà segnale. L’antigene di rilevazione ci deve essere perché altrimenti l’antigene di cattura che si ha
sulla fibra di vetro non darebbe segnale, e mancando l’antigene di rilevazione, l’anticorpo ad esso
complementare e l’enzima ad esso legato non troverebbero niente a cui legarsi sulla fibra di vetro.
Domanda: La presenza del colore ci dà informazioni di tipo quantitativo , in funzione dell’intensità
del colore stesso, o solo qualitativo?
Risposta:
La misura dell’intensità del colore, ovvero l’assorbanza è proporzionale alla concentrazione del
colore, quindi sì, è possibile avere risposte di tipo quantitativo, anche se in questo caso lo scopo è
rilevare la presenza della sequenza.
Gap Ligase chain reaction (LCR)
Esiste una variante delle LCR, che è la Gap LCR, che utilizza
dei probe un po’ più corti, i quali si ibridizzano, ma lasciano
tra loro un gap più lungo. La ligasi non basta, c’è bisogno
anche della polimerasi e di nucleotidi liberi per allungare la
catena finché non si arriva al punto in cui si ha soltanto un
fosfato in posizione 5’ e un H in posizione 3’. In certi casi si
possono non avere dei probe sufficientemente lunghi e
disponibili per identificare la sequenza che si sta cercando.
Dispositivo per la rilevazione del DNA
Finora si è ragionato su approcci macroscopici, ma è possibile trasferire questi ragionamenti alla
micro e nano scala.
Si può immaginare, in certi casi, di portare una reazione di PCR su un chip, un dispositivo che
integrando canali fluidici, riscaldatori, sensori di temperatura e rilevatori di fluorescenza sia in
grado di identificare l’amplificazione di un campione specifico di DNA. Grazie alla microfluidica e
alla miniaturizzazione dei dispositivi, resa possibile dalle nano tecnologie, si riescono a realizzare
3
Furlotti/Francolini
Bionanotecnologie (Ciardelli)
06/05/2022
questi bio-chip. Un dispositivo questo tipo ha delle zone di alimentazione del campione, in ordini
di volumi molto piccoli (nano liquidi), una zona in cui si regola il flusso e la velocità del liquido, una
zona in cui si fa la PCR (zona di reazione termica) in cui ci saranno dei riscaldatori, dei misuratori di
temperatura.
Questa parte, che alla macroscala non è ancora stata vista, consiste nell’analizzare il prodotto della
PCR e separare il prodotto dalle impurezze.
Per separare questi oggetti si utilizza una tecnica chiamata elettroforesi su gel, nella quale si
utilizza un gel polimerico per separare le molecole. Il tutto si può portare a bordo di un dispositivo
integrato micro e nano fluidico per l’analisi su chip del DNA.
Analisi del DNA dopo PCR - elettroforesi su gel
L’elettroforesi su gel è una tecnica molto utilizzata per separare le componenti di miscele
biologiche (acidi nucleici o proteine). Le due proprietà che si sfruttano per la separazione sono la
carica e il peso molecolare, quindi le dimensioni della molecola. Quello che si fa è andare a
caricare la molecola da una parte, sottoporla all’azione di un campo elettrico, creato grazie a due
elettrodi. Nel caso del DNA questo campo elettrico tenderà a migrare da un polo positivo ad uno
negativo perché il DNA ha nella catena il gruppo fosfato, che sono cariche negative (polianione). La
separazione avviene in questo modo: la sostanza migra in direzione del campo elettrico, la
reazione avviene all'interno di una fase stazionaria, che è posta fra i due elettrodi. La fase
stazionaria può essere fatta o di carta, o di un liquido all’interno di capillari, infatti la tecnologia
capillare è quella che si presta di più a essere trasferita sulla micro e nano scala, o più
comunemente la fase stazionaria può essere fatta di gel polimerici, che sono in genere costituiti da
polisaccaridi, come il lagarosio, oppure sintetici come la polietilammide. Per DNA piccoli si usa in
genere la polietilammide, per DNA più grandi si usa il lagarosio.
Come si indica la grandezza di una molecola di DNA? In genere si trova scritta l’unità di misura bp,
che sta per base pairs, ovvero coppie di basi. La dimensione del DNA la dà il numero di coppie di
basi che sono contenute nella molecola.
Il gel in genere si lavora in tamponi, la proteina serve anche per decidere a che pH lavorare
rispetto al loro punto isoelettrico, quindi rendere le cariche positive o negative. Per il DNA questo
problema non c’è, però il tampone serve a garantire che la corrente passi attraverso il gel grazie
agli ioni contenuti nel sale (tampone).
Si può lavorare in condizioni denaturanti, si può scegliere se separare singole eliche o doppie
eliche; separando doppie eliche si lavora in condizioni neutre, si si vogliono separare le singole
eliche si lavora in condizioni denaturanti, quindi per esempio si usano la formammide e l’urea.
Il sistema (in figura) è costituito da 2 elettrodi, da un pozzetto idrocarico dove viene caricato il
DNA. Se il campione è costituito da
catene a diversa lunghezza, quando si
spegne il campo elettrico le catene più
piccole si saranno dall’elettrodo
negativo rispetto a molecole più grandi.
Alla fine si ottengono delle bande che si
evidenziano con dei coloranti o con dei
marcatori radioattivi e si vanno a vedere
le dimensioni delle molecole che erano
contenute nel campione
4
Furlotti/Francolini
Bionanotecnologie (Ciardelli)
06/05/2022
È esemplificata l’ipotesi di avere una miscela di
frammenti di DNA (frammenti di restrizione, che
possono essere il risultato di un taglio del DNA più
lungo, ma potrebbe essere anche la miscela proveniente
dalla PCR).
Si applica il campo elettrico, il DNA comincia a migrare:
è una sorta di percorso ad ostacoli dove le molecole più
piccole riescono a districarsi in maniera più efficace
rispetto alle più grandi.
Le più lunghe si fermano prima, mentre le più corte raggiungono una posizione più avanzata.
I risultati che ottengo sono i due elettroforetogrammmi di miscela di DNA, segnati come M ci sono
gli standard, cioè dei campioni a grandezza nota che mi servono per tarare il sistema.
C’è una scala: ci sono basi (8, 4, 3, 2, 1 kb) o coppie di basi (bp 1400, 600, 400, 200, 100, 60, 20).
Quindi mettendo la miscela, se la banda viene trovata in corrispondenza del 30, significa che il
DNA era costituito da 30 coppie di basi e così via.
Southern Blotting
L’elettroforesi può essere accoppiata al Southern Blotting, che è una tecnica usata per rilevare la
presenza di specifiche sequenze di DNA in una miscela composta: non separo soltanto, ma vado
anche a identificare se in quella miscela è presente una specifica sequenza.
Quindi si prende il DNA, gli
enzimi di restrizione lo tagliano
pezzi più piccoli; con
l’elettroforesi si effettua
questa separazione. A questo
punto si deve aggiungere un
denaturante come l’urea e tutte le catene doppie diventeranno singole e in questo modo è
possibile trasferire l’elettroforetogramma su un pezzo di carta.
in
Se ho l’elettroforetogramma su gel, lo denaturo e lo trasferisco su un foglio di nitrocellulosa, dove
si attaccano solo le catene
singole.
A questo punto devo
sviluppare il foglio e lo
metterò in un bagno che
contiene delle sonde
radioattive o marcate a
fluorescenza.
5
Furlotti/Francolini
Bionanotecnologie (Ciardelli)
06/05/2022
Quando sviluppo, mentre prima si usavano semplicemente dei coloranti o dei marcatori aspecifici
che colorano tutto il DNA, qui ho proprio una sonda che si lega solo dove trova il suo DNA
complementare.
La composizione della sonda (ovvero la sequenza di basi) la conosciamo, trovando delle bande in
una determinata posizione, ottengo anche un’informazione sulla sequenza che si trova in quella
posizione.
Northern & Western Blotting
Ci sono due varianti di Southern Blotting, dove Southern era il cognome del biochimico che ha
inventato il saggio.
Per analogia quando il saggio viene fatto su RNA o su proteine il nome diventa rispettivamente
Northern Blotting e Western Blotting, ma è solo una nomenclatura derivata.
Quindi il Northern Blotting è la stessa cosa del Southern, fatto però a partire da un campione di
RNA, perciò non c’è bisogno di fare la denaturazione perché si lavora già a singole eliche.
Mentre con il Western Blotting, come sonde non può usare delle catene di DNA ma degli anticorpi
marcati radioattivi e lo si fa però sulle proteine (argomento che non sarà trattato).
BIOMEMS-2
Metodi di rilevazione
Si vedrà come creare dei sensori con dei rilevatori che siano adatti a dispositivi miniaturizzati.
Ovviamente non è possibile utilizzare i metodi tradizionali.
Come sensori si potranno mettere vari tipi di oggetti. Con il campione da analizzare si fanno tutte
le operazioni di processing e poi ci sarà da rilevare cosa si aveva nel campione.
Ci sono tre metodi:
-
Rilevazione meccanica
Rilevazione ottica
Rilevazione elettrica
Quella ottica è quella più diffusa, ma la meccanica ha delle potenzialità maggiori.
Rilevazione meccanica
È rilevazione di entità o reazioni
biochimiche. Si usano come oggetti del
sensore dei cantiliver (travi a mensola),
ovviamente miniaturizzati. Sono quegli
oggetti che si usano nei miscoscopi a forza
atomica: è un oggetto che si può
6
Furlotti/Francolini
Bionanotecnologie (Ciardelli)
06/05/2022
immaginare come una specie di giradisci, con la cui punta si va ad interagire con una superficie.
Muovendolo si fa una profilometria della superficie che poi viene ricostruita su un’immagine. Non
è un vero microscopio ottico, ma si basa su un’indagine al contatto (meccanica). Si fa infilare la
punta nel materiale e ne si testano le proprietà meccaniche.
Il protagonista della microscopia a forza atomica AFM è la puntina del giradischi.
A noi in realtà non interessa la puntina ma ci interesseremo solo della testina, il cantiliver.
Se su questi avviene una reazione di tipo biochimico o vi si appoggiano oggetti molto piccoli,
queste levette leggere subiranno una sollecitazione meccanica. Se sono fermi si inclinerà, se
invece si mettono in oscillazione, cambierà la frequenza di oscillazione perché cambia la massa.
Rilevazione meccanica - Variazione di massa
Ho la trave a mensola, do un colpetto (ovviamente in processo è molto delicato). Questo inizierà a
vibrare alla sua frequenza di risonanza:
Quando su questa superficie si posa del materiale, m cambierà e con essa cambierà f. Supponendo
che k rimanga costante, questa variazione di massa sarà correlata da questa legge:
f0 è la frequenza iniziale, quando non ho l’oggetto depositato, f1 è quando ho l’oggetto
depositato.
È in genere il metodo che uso quando si hanno cellule o virus, perché si disporranno in modo
discreto e non formeranno mai uno strato di ricopertura totale.
Rilevazione meccanica - Reazione biochimica
Con molecole piccole si può pensare di usare il metodo dell’inclinazione: si va a misurare quanto
varia la posizione in altezza dell’estremità libera del
cantiliver.
Si immagini di aver rivestito il cantiliver con uno strato
di anticorpo. Quando arriva la molecola target, quindi
l’antigene dell’anticorpo e avviene il legame tra
recettore e target, si crea uno strato uniforme diverso
da quello originale e il cantiliver si defletterà. Avviene
una reazione biochimica, ad esempio il legame tra
anticorpo e antigene oppure il legame tra due catene
7
Furlotti/Francolini
Bionanotecnologie (Ciardelli)
06/05/2022
complementari di DNA, cambia l’energia libera e quindi lo stress superficiale e questo fa si che il
cantiliver si pieghi (bending).
L’inclinazione viene misurata sfruttando un laser con cui si va a colpire la punta, cioè la zona libera
del cantiliver. Se il laser colpisce in un punto piuttosto che in un altro, farà un cammino ottico
diverso, quindi lo si potrà rilevare con un opportuno sistema. È lo stesso principio che si utilizza
nella microscopia a forza atomica.
Si può anche usare un metodo elettrico mettendo un
piezoresistore sul cantiliver che vedrà la sollecitazione.
La formula che lega la variazione di stress (Δσ1 - Δσ2) alla
variazione di altezza (Δz) è:
Coinvolge la lunghezza del cantiliver (l), il suo spessore (t), il rapporto di Poisson (la comprimibilità,
ν), il modulo elastico del materiale (E). Si suppone che tutte queste quantità non cambino quindi
Δz è solo correlato tramite una costante di proporzionalità alla variazione di energia libera (Δσ1 Δσ2), che è una conseguenza del fatto che è avvenuto il legame antigene-anticorpo.
[Filmato 3] - https://www.youtube.com/watch?v=LcPBNcaqaKg
8
Scalfaro/Grieco Nobile
31 Bionanotecnologie (Ciardelli)
11/05/2022
Riassunto scorsa lezione
Nella scorsa lezione si erano visti dei sistemi miniaturizzati alla micro e nano scala, i quali vengono
inseriti come elementi sensibili, cioè tecnologie utilizzate per effettuare la parte di rilevazione nelle
Biomems, ovvero quegli oggetti micro o nanometrici, somiglianti ad un chip elettronico, i quali
hanno al loro interno la capacità di elaborare un materiale biologico ed analizzarlo previa eventuale
separazione dei suoi componenti. Si sono viste le tecnologie che servono all’amplificazione del DNA,
alla sua separazione e le tecnologie che servono a rilevare anche selettivamente il campione in
oggetto. I metodi per produrre un segnale in seguito alla misurazione del campione sono diversi, si
può produrre un segnale di tipo elettrico, ottico e meccanico. I segnali di tipo meccanico sono i
metodi più moderni, meno sviluppati dal punto di vista commerciale ma molto interessanti perché
non necessitano funzionalizzazioni del campione, il che porta vantaggi sia economici sia di facilità
operativa.
Rilevazione meccanica – Esempi
1. Rilevazione di DNA
Nei dispositivi meccanici si può avere una trave a mensola, un cantilever, intubato come tecnologia
della microscopia a forza atomica (metodo di rilevazione superficiale ma anche un metodo di micro
e nano fabbricazione). Osservando la trave a mensola, quando c’è un evento biologico si può avere
una flessione del cantilever oppure se è messo in oscillazione si può avere la variazione della
frequenza di oscillazione in seguito all’evento biologico. Posso pensare di immobilizzare sul
cantilever del DNA a catena singola di sequenza nota; quando si avrà del DNA complementare ad
esso ci sarà l’ibridazione e un aumento di massa sul cantilever, quindi si avrà una variazione
dell’energia superficiale o della frequenza di oscillazione se prima è stato messo in vibrazione, si
vedrà quindi una deflessione misurabile con metodo ottico e risalire al fatto che il materiale
genetico è ibridizzabile, quindi complementare alla sequenza immobilizzata prima nel cantilever.
Questa tecnologia può essere sviluppata nella modalità del macro array cioè modalità nella quale si
immagina di avere più elementi sensibili nello stesso dispositivo. Si può immaginare di immobilizzare
una seconda sequenza su un secondo cantilever che potrà essere complementare ad un’altra
sequenza ignota che si ha nel campione originario. Questo è il principio con il quale si costruiscono
dei sensori meccanici per la rilevazione del DNA.
1
Scalfaro/Grieco Nobile
31 Bionanotecnologie (Ciardelli)
11/05/2022
Lo stesso principio lo posso adottare alla rilevazione di proteine, sarà il nostro dualismo anche se ci
concentreremo più sul DNA, campo in cui queste tecnologie hanno trovato maggiore sviluppo; si
avrà sempre un dualismo in cui l’elemento sensibile, chiamato sonda di cattura o capture probe,
sarà una sequenza di DNA sulla quale si va a rilevare materiale genetico, saranno invece anticorpi
(Y) dove si vorrà determinare la presenza di proteine o antigeni in generale.
2. Rilevazione dei marker tumorali
Nel seguente esempio si vede come il legame della proteina all’anticorpo porterà ad un aumento
della massa e ad una variazione di energia superficiale, il cantilever avrà una flessione correlata alla
presenza dello specifico analita.
Esempio classico del PSA (antigene prostatico), un marcatore che si va a ricercare nel sangue per
rilevare infiammazioni o tumori alla prostata, che rileva la presenza di questo antigene. Si deve
immobilizzare l’anticorpo sulla superficie d’oro, di solito si usa uno spaziatore (per esempio una
sequenza di polietilenglicole) in modo che l’anticorpo abbia una sufficiente mobilità in modo da
mostrare la sua zona di legame, di riconoscimento, in modo efficace verso l’antigene.
Un altro accorgimento che solitamente si fa è ricoprire di polietilenglicole tramite un PEG-Silano la
superficie inferiore, per evitare che nella superficie inferiore si abbia un assorbimento aspecifico di
proteine; nel sangue oltre all’antigene prostatico ci sono anche molte altre sostanze che potrebbero
aderire in maniera aspecifica per semplice assorbimento al cantilever. Perciò, ricoprire con un
mezzo di passivazione, allestimento antisporcamento, può evitare questo fenomeno in quanto se si
ha assorbimento nell’analisi si misurerebbe una deflessione più piccola, si avrebbe un errore
possibile.
Per la rilevazione si può usare un metodo ottico puntando un laser verso la punta del cantilever, si
acquisisce prima dell’analisi la linea di base. Nell’esempio a) il raggio andrà a colpire la zona sul
fotodiodo, la misura correlabile alla deflessione in questo caso sarà zero; nell’esempio b) si avrà
l’assorbimento quindi il fotodiodo sarà colpito in un altro punto rispetto a prima, si può poi andare
a calcolare la deflessione cioè lo scostamento dalla linea di base che nel caso ideale può anche
essere proporzionale all’antigene rilevato. Tutto ciò viene fatto in un piccolo chip con una piccola
quantità di sangue, può essere idealmente un dispositivo portatile.
2
Scalfaro/Grieco Nobile
31 Bionanotecnologie (Ciardelli)
11/05/2022
Rilevazione ottica
La rilevazione ottica è la più comune tecnica di rilevazione usata in biologia e nelle scienze della vita.
Il segnale che si va a leggere di solito è un segnale di fluorescenza o di chemiluminescenza. È
necessario utilizzare dei marcatori di fluorescenza (emissione di una radiazione in seguito
all’assorbimento di un’altra radiazione) oppure di luminescenza (risultato di una reazione chimica).
In genere, questi oggetti sono dei chip, si ha quindi una superficie in vetro o silicio sul quale si ha
uno strato di adesione a cui si legano le sonde di catture, che possono essere o catene di DNA per
rilevazione di DNA oppure anticorpi per misurare la presenza di proteine o cellule.
Piccolo inciso sulla fluorescenza e chemiluminescenza
Fluorescenza  Definizione: può essere definita come l’assorbimento molecolare dell’energia
incidente (fotone) ad una certa lunghezza d’onda e la sua ri-emissione ad un’altra lunghezza d’onda.
Nella fluorescenza si ha bisogno di molecole con elettroni pigreco, cioè molecole di tipo aromatico
come il benzene, le quali hanno degli orbitali di legame (cioè occupati dagli elettroni) che sono
abbastanza vicini agli orbitali di antilegame. La parte riquadrata in azzurro S0 è chiamata Homo
(highest occupied molecular orbital) è l’orbitale a più alta energia dove si trovano gli elettroni di
legame, detto anche orbitale di legame. Gli orbitali di antilegame sono quelli a più alta energia, cioè
gli orbitali non occupati quando la molecola non è eccitata, perché preferisce tenere gli elettroni
negli orbitali più bassi come S1 (nel riquadro verde), detto Lumo (lowest unoccupied molecular
orbital). L’elettrone sta nell’orbitale più basso, quando si irraggia con una radiazione di energia h,
si trasferisce grazie all’energia assorbita su un orbitale eccitato a più alta energia, assorbendone
l’energia che gli viene irradiata. Quando poi la molecola si rilassa e tende a tornare nello stato
fondamentale, l’elettrone decade, è un decadimento non radioattivo (si è nell’orbitale Sπ )cioè non
emette energia. Arrivato sull’ultimo orbitale completa il suo rilassamento tornando allo stato
fondamentale emettendo energia, ad una frequenza ν1 < , perché E1 < E, al contrario la lunghezza
d’onda di emissione è minore della lunghezza d’onda di eccitazione (λ1 < λ).
Esistono queste molecole dette cianine, le quali hanno uno spettro d’assorbimento come
nell’immagine, con massimo intorno a 5.30, mentre quello tratteggiato è lo spettro di emissione con
un massimo intorno a 5. Il vantaggio della fluorescenza è che avendo due lunghezze d’onda di
assorbimento e di eccitazione diverse, la molecola assorbe la radiazione eccitante e non assorbe la
3
Scalfaro/Grieco Nobile
31 Bionanotecnologie (Ciardelli)
11/05/2022
radiazione emessa, quindi il segnale arriva più pulito perché non ci sono interferenze. Esistono molte
cianine, è possibile avere vari colori cioè varie fluorescenze a lunghezze d’onda diverse, quindi è
possibile analizzare più campioni diversi allo stesso tempo.
Chemiluminescenza  Definizione: è l’emissione di luce in seguito ad una reazione chimica. La luce
viene rilevata mediante opportuni rilevatori. È richiesto l’uso di molecole marcate con opportune
molecole o enzimi, in grado di catalizzare le reazioni che producono la luminescenza.
La chemiluminescenza è un po’ meno usata,
è sempre la coniugazione di un enzima con
un anticorpo: l’anticorpo è selettivo per la
proteina che si vuole rilevare, in questo caso
una proteina del sangue, mentre l’enzima è
l’HRP
cioè
Horseradish
peroxidase
(perossidasi del rafano). L’HRP riduce l’acqua
ossigenata, in particolare in presenza del
luminol esso viene ossidato in una molecola
instabile emettendo luce, quindi se c’è
questa proteina si vede della luce (concetto
simile a quanto visto nella LCR, cioè la coniugazione di un enzima il quale trasforma un suo strato in
colore e un suo strato colorato in luminoso, con un anticorpo che si lega all’antigene specifico che
è il mio analita).
Rilevazione ottica in fluorescenza
Con la rilevazione a fluorescenza è possibile identificare anche singole molecole. In particolare, nei
BioMEMS viene impiegata nella rilevazione di cellule/biomolecole utilizzando saggi basati sugli
anticorpi (tipo ELISA).
 Rilevazione fi filamenti di DNA
Ciò che posso fare con la rilevazione ottica, in particolare con il DNA, è immobilizzare le sonde di
cattura: se sono catene singole di DNA mi servono per identificare la presenza del suo
complementare, che sono le target probes che dovranno però essere fluorescenti (quindi marcati
in precedenza altrimenti non si vedono).
 Rilevazione di biomolecole/proteine in soluzione
Lo stesso dovrà essere fatto per le proteine, in questo caso le capture probes sono degli anticorpi e
le proteine si legheranno, se hanno il cromofono fluorescente si va a misurare la fluorescenza e si
vede la proteina.
4
Scalfaro/Grieco Nobile
31 Bionanotecnologie (Ciardelli)
11/05/2022
 Rilevazione di cellule
Ciò che si può fare è detectare le cellule, in questo caso si hanno anticorpi selettivi per proteine
extra membrane della cellula. In genere si può anche marcare la cellula fluorescente, per esempio
si può transfettare1 la cellula con un gene che produce la proteina fluorescente verde (approccio
poco usato). Solitamente però si preferisce individuare la cellula marcandola, come viene fatto in
immunoistologia, con degli anticorpi marcati fluorescenti i quali si legheranno agli antigeni cellulari
presenti in abbondanza.
Idealmente la cellula ha gli antigeni cellulari su entrambi i lati (come viene mostrato nell’immagine
sopra), un lato delle proteine servono per legarsi al chip, l’altro lato delle proteine invece serve per
legarsi all’anticorpo e dare un segnale a fluorescenza, è una specie di ELISA a sandwich. L’antigene
può essere una proteina di membrana sovra espressa da cellule del cancro, per esempio un
recettore per il folato. Per esempio, in un campione di cellule, se si immobilizzano nel chip i probes
specifici, si possono immobilizzare selettivamente le cellule cancerose e individuarle in un campione
per esempio nel sangue.
Immobilizzazione dei capture probes -Tecnica chimica
 Superfici rivestite con Amminosilano
A questo punto si studia meglio il tipo di legame in blu scuro indicato con la freccia rossa. Viene
detto attachment layer, è un rivestimento del chip su cui si vanno a mettere delle funzionalità in
grado di legame chimicamente la biomolecola di interesse, in particolare il DNA. Per esempio, si può
fare una silanizzazione con un amminosilano, quindi funzionalizzare la superficie con gruppi
amminici i quali hanno un pH abbastanza basso, carichi positivamente e formano ione ammonio,
queste cariche positive attraggono lo scheletro di DNA che portano i gruppi fosfato (quindi negativi);
perciò per semplice interazione elettrostatica si lega il DNA alla superficie.
1
Transfettare = inserire una sequenza di DNA esogeno dentro un genoma di una cellula
5
Scalfaro/Grieco Nobile
31 Bionanotecnologie (Ciardelli)
11/05/2022
Funziona particolarmente bene quando si hanno DNA sufficientemente lunghi in cui ci sono
interazioni elettrostatiche in numero importante.
 Superfici rivestite con Aldeidi
Si può fare un legame più forte di tipo covalente, in questo caso sono necessari gruppi aldeidici sulla
superficie e di gruppi amminici (quindi devo modificare il DNA perché di suo non ce l’ha) sul DNA.
La reazione di legame che avviene è la seguente:
Si ha il vetrino con il
gruppo aldeidico, a cui
sommo il DNA con il
gruppo amminico, si ha
una reazione chiamata
formazione a base di
schiff. Se ne va acqua e si
forma
un
legame
covalente con l’azoto e
quindi con il DNA. È un
legame un po’ labile, se
si mette infatti acqua acida si torna indietro, è una reazione di equilibrio. Per evitare di tornare
indietro si fa una riduzione con sodio boroidruro. Si fa una riduzione del doppio legame, si prendono
due idrogeni e si mettono sul doppio legame. A questo punto ho un legame covalente singolo, è di
fatto un’ammina secondaria sostituita dal DNA da una parte e dal vetrino dall’altra. Ho quindi il DNA
legato covalentemente al vetrino.
Curiosità: il gruppo amminico si può introdurre quando si fa la PCR con delle modifiche alla sintesi.
Rilevazione elettrica
La rilevazione di tipo elettrico si basa su tre fondamentali sensori alla nanoscala:
I. Conduttimetrici: sensori che misurano un cambiamento di conducibilità (per esempio il pH
viene misurato così)
II. Amperometrici: per misurare la corrente
III. Potenziometrici: sensori che misurano la differenza di potenziale
6
Scalfaro/Grieco Nobile
31 Bionanotecnologie (Ciardelli)
11/05/2022
 Sensori Amperometrici
Si ricorda che nelle reazioni redox ci sono elettroni “in giro” che si sfruttano per misurare la corrente
nel caso in cui si mette un opportuno elettrodo di lavoro, oppure per il calcolo di differenza di
potenziale nel caso in cui viene messo un elettrodo di riferimento.
L’esempio più rappresentativo dei sensori amperometrici è basato su una reazione redox catalizzata
da un enzima dove la corrente di elettroni risultante viene misurata a livello dell’elettrodo di lavoro.
Rilevazione del glucosio
La reazione redox su cui sono basati i biosensori per la rilevazione del glucosio, è l’ossidazione del
glucosio da parte dell’enzima glucosio ossidasi, questo vale anche nei sensori alla macroscala, come
per esempio quelli con cui si misura la glicemia nei laboratori dell’Asl funzionano con questo
principio.
Il glucosio in presenza di ossigeno e acqua, presenti in grande quantità nell’ambiente fisiologico,
viene ossidato ad acido gluconico, si produce perossido di idrogeno (comunemente detta acqua
ossigenata  H2 O2 ) che in vivo viene ridotta da opportuni enzimi come le perossidasi (nominate
prima). Si può ridurre l’acqua ossigenata con un elettrodo argento-cloruro di argento. L’acqua
ossigenata generata in concentrazione correlata al glucosio, quindi dalla differenza di
potenziale/corrente che si vede, si può risalire alla quantità di glucosio che si aveva (principio di
rilevazione del glucosio usato in tutti i sensori).
 Sensori Potenziometrici
Questi sensori misurano un cambiamento di potenziale agli elettrodi causato da ioni o da una
reazione chimica ad un elettrodo. I sensori potenziometrici maggiormente utilizzati sono per la
misura del pH e per il riconoscimento molecolare (BioFET).
7
Scalfaro/Grieco Nobile
31 Bionanotecnologie (Ciardelli)
11/05/2022
Transistor a effetto di campo (FET)
La sfida dei bionanotecnologi è portare questo sensore su un dispositivo nanometrico, in questo mi
aiuta la microelettronica la quale ha sviluppato dei dispositivi chiamati transistor a effetto di campo
(tecnologia alla base dei sensori potenziometrici) che hanno una zona chiamata gate, esposta
all’esterno, che va a misurare delle variazioni
dell’ambiente redox circostante. Tipicamente è fatto
da materiale semi-conduttrice (quadrati in beige
nell’immagine indicati con s e D) che ha una sorgente e
un drain, regione che emette elettroni e una regione
che è in grado di raccoglierli. Si vorrà costruire un
sensore biologico, chiamato anche BioFET, in modo da
rilevare un evento biologico.
La source e il drain sono collegati a un
amperometro/potenziometro. L’altro estremo del
circuito è il back gate, in genere fatto di silicio, quindi un conduttore. Tra il gate e il back gate c’è
uno strato isolante, per esempio di silice (ossido metallico) infatti questi sensori si chiamano anche
MOSFET, dove MO sta per metal oxide.
Si vedrà ora come si può costruire il FET in modo da mettere al posto del semiconduttore un oggetto
sensibile all’ambiente biologico, quindi un oggetto molto sensibile alle variazioni di corrente in un
ambiente molto piccolo, per questo si usano per esempio i nanotubi di carbonio.
Il carbone ha tre forme allotropiche, tra cui il diamante e la grafite. Queste hanno una differenza di
struttura elettronica del carbonio: nel diamante il carbonio è sp3, è isolante, mentre la grafite ha
un’ibridazione sp2 ed è conduttrice, perché ci sono elettroni pigreco non impegnati nei legami che
sono labili e possono condurre.
Che cos’è la grafite? La grafite è formata da tanti piani di carbonio ibridizzati sp2 impilati uno
sull’altro; tra questi piani non c’è un legame chimico, infatti spezzare la mina di una matita è molto
facile perché si vanno a separare due strati tenuti insieme da interazioni abbastanza deboli. Se si
immagina di tagliare a fette sottilissime la grafite fino ad ottenere uno strato monomolecolare, si
otterrebbe un foglio di carbonio formato da anelli (esagoni) di carbonio con gli elettroni che girano
sopra e sotto. Questo foglio non prende il nome di grafite, bensì grafene. Se si immagina di prendere
il foglio di grafene e di avvolgerlo in un tubo si ottiene un nanotubo. Si può avvolgere il nanotubo
secondo vari assi e questo va a cambiare la conduzione: in generale i nanotubi sono o dei conduttori
o dei semiconduttori. Tale condizione avviene attraverso il passaggio di elettroni nel tubo, il quale
non è altro che un filo nanometrico percorso da corrente, che seppur molto piccola dà una densità
di corrente molto alta e quindi si rileva facilmente. Si costruisce quindi il gate nel BioFET con il
nanotubo e unisce la source al drain: invece di esserci uno strato di ossido metallico drogato con
deficienza o ricchezza di elettroni, si mette il nanotubo. Al nanotubo non interessa degli eventi
biologici, quindi deve essere modificato in modo tale da essere sensibile all’ambiente biologico.
8
Scalfaro/Grieco Nobile
31 Bionanotecnologie (Ciardelli)
11/05/2022
A tale scopo si è pensato di immobilizzare sul nanotubo delle proteine come per esempio la
glucosio ossidasi, cioè un elemento sensibile per misurare il glucosio. Costruendo questo oggetto
si è costruito un nanosensore per la misura della concentrazione di glucosio su campioni
piccolissimi, magari a valle di un circuito microfluidico.
Rilevazione elettrica – Esempio:
immobilizzazione di proteine
Come si immobilizza la proteina sul
nanotubo? In questo esempio la
proteina è la Zn-Cd metallotioneina ed
essa utilizza i suoi gruppi amminici NH2
(cerchiati in azzurro) per legarsi al
nanotubo (tutte le proteine hanno a
disposizione gruppi amminici, quindi
funzionano tutte nello stesso modo).
Tra il nanotubo e la proteina si utilizza
una molecola ponte (o bifunzionale) che
è l’estere attivo dell’acido 1pirenbutanoico. Si tratta di un acido
butanoico (quattro atomi di carbonio 
CH3 − CH2 − CH2 − COOH) dove uno
degli idrogeni viene sostituito dal pirene
(cerchio rosso) si ottiene così l’acido
pirenbutanoico. Il pirene è un aromatico condensato in quanto
sono quattro anelli attaccati. Il gruppo pirene e il nanotubo
sono due specie molto simili, hanno entrambi elettroni pigreco
e possono interagire per interazione non covalente, detta pistacking (impilamento pigreco) ed è un’iterazione idrofobica
che avviene quando si hanno delle molecole aromatiche.
Avvicinando il pirene gli anelli 3-pigreco iniziano ad interagire
creando dipoli indotti (cerchio lilla).
Dall’altra parte invece c’è il legame tra proteina e molecole e si sfrutta il
gruppo carbossilico (cerchio verde) che qui è attivato dalla
idrossisuccinimmide (cerchio arancione). Si era già parlato della
idrossisuccinimmide nella funzionalizzazione superficiale, nella quale si
attivavano i gruppi carbossilici con l’NHS + EDC (carbodiimide), modo per
rendere un acido carbossilico più reattivo verso i gruppi amminici creando
un estero attivo. La reazione è la seguente:
Funzionalizzo con l’idrossisuccinimmide l’acido carbossilico posso scriverlo come estere attivo:
reagisce con una proteina (P), si ha la sostituzione nucleofila acilica, si perde acqua (ricordo che la
sostituzione nucleofila avviene in due passaggi: prima addizione e poi eliminazione), si forma il
9
Scalfaro/Grieco Nobile
31 Bionanotecnologie (Ciardelli)
11/05/2022
legame ammidico tra la proteina e il gruppo dell’estere attivo. Quindi, da una parte si lega la
proteina con legame ammidico, dall’altra si lega il nanotubo con l’interazione pi-stacking tra il pirene
e il nanotubo stesso.
NB: Questo è un metodo generale per legare una qualsiasi proteina ad un nanotubo.
Nello specifico, ad esempio, si può legare la glucosio ossidasi ottenendo un biosensore per il glucosio
alla nanoscala.
Nell’immagine a fianco viene mostrata la proteina glucosio ossidasi
(indicata con le freccine) la cui immagine è stata ricavata attraverso
una tecnica chiamata HRTEM. Vedere una proteina al microscopio è
impossibile, grazie a questa tecnica (TEM) che ha la migliore
risoluzione, dà la possibilità di visionare proteine solamente nel caso
in cui queste contengono metalli (zinco e metalli pesanti).
Microarrays
DNA Microarrays
Si vede ora come i sensori di cui si è parlato fino ad ora (elettrici, ottici, meccanici) vengono sfruttati
all’interno di un formato array
allo scopo di rilevare entità
multiple simultaneamente. Si
immagini un pavimento a
mattonelle
dove
ogni
mattonella contiene uno di dei
sensori con una sequenza di
DNA specifica. Ogni mattonella
ha la sua sequenza ed il
sensore andrà a vedere su
quale mattonella il DNA che si
sta
analizzando
va
ad
ibridizzarsi. Invece di fare tante mattonelle si può anche formare un pavimento in cui si ha su
ciascuna mattonella un pezzetto del genoma umano così che quando poi si ha il DNA frammentato
si mette sopra e colorandolo diversamente si può andare a vedere dove ciascun pezzo si va ad
ibridizzare. La prima cosa da fare è immobilizzare le sequenze cioè le capture probes, sulle varie
mattonelle e poi devo analizzare le target probes che si mettono sul sensore. Quindi un microarray
è fatto da mattonelle ognuna con una sottomattonella la quale ha una sequenza specifica di DNA;
si possono mettere due campioni diversi provenienti da due tipi di cellule diverse, ibridizzarle
insieme ed andare a vedere le differenze di ibridazione.
10
Scalfaro/Grieco Nobile
31 Bionanotecnologie (Ciardelli)
11/05/2022
Si possono avere tante sequenze di DNA che
sono state prodotte con metodi di
laboratorio oppure si possono costruire le
sequenze nucleotide per nucleotide.
Quindi si possono avere e poi
immobilizzarle una alla volta, oppure per
ogni mattonella si va a costruire il DNA
sopra in maniera specifica.
Per quando riguarda le dimensioni si parla
di macroarrays sui 300 microns, mentre
sotto i 200 microns si parla di microarrays.
Microarrays – Tecnica ottica
Questa è la tecnica che serve per
costruire sull’array sequenze
nucleotidiche diverse.
La superficie array può essere in
vetro o un chip di silicio che viene
modificato al fine di avere dei
gruppi amminici in superficie.
Questi gruppi amminici vengono
protetti con dei gruppi X i quali
sono legati all’azoto con un legame fotolabile, cioè se viene irraggiato con una radiazione luminosa
il legame si rompe. Quindi si ha una superficie con tutti questi gruppi amminici protetti, si mette
sopra una maschera da litografia (viste per la micro e macro fabbricazione) e il raggio con la luce:
nelle zone non coperte dalla maschera si staccherà il gruppo X, mentre nelle zone protette il gruppo
X rimarrà. A questo punto si arriva con il primo nucleotide (indicato con A nell’immagine), sempre
legato al gruppo X, e si lega alle zone libere, quindi nella zona che era irraggiata mi ritrovo il
nucleotide A. A questo punto si rimette la maschera in posizione diversa in modo da lasciare
scoperta una regione diversa. SI irraggia, i gruppi X vanno via ed il gruppo B si andrà a legare nelle
zone che ho deprotetto. Quindi nella prima zona si hanno due A, nella seconda invece si hanno due
B. Andando avanti si possono costruire delle catene che però non possono essere troppo lunghe
perché potrebbero esserci degli errori, tipicamente una base magari non si lega o si deprotegge per
errore anche un altro punto al quale si attaccherà una base che non si vuole legare lì.
Per questo motivo sopra i 25 nucleotidi si sconsiglia questo metodo in quanto si potrebbero creare
sequenze diverse da quelle volute.
Si ricorda che lo scopo della tecnica ottica è quello di deproteggere in modo selettivo siti di legame
su cui possono essere “costruite” a piacere sequenze nucleotidiche.
11
Scalfaro/Grieco Nobile
31 Bionanotecnologie (Ciardelli)
11/05/2022
In questa immagine viene rappresentato lo stesso funzionamento ma da un’altra prospettiva.
1. Il wafer di silice o di vetro funzionalizzato in
questo caso con ossigeno, quindi si avranno
dei gruppi OH anziché OH2 ma la filosofia
non cambia.
2. Si ricopre con delle palline blu che
rappresentano
il blocking compound
(composto di bloccaggio) che prima si era
chiamato X.
3. Si mette la maschera.
4. Si irraggia.
5. Dalla zona non coperta dalla maschera si
staccano le palline blu.
6. Si arriva quindi con le palline rosse unite a
quelle blu, cioè l’adenina che è una base,
unita al composto di blocco. L’adenina si andrà a legare ai gruppi ossidrilici che si erano
scoperti con l’irraggiamento, si lega solo nella zona che era scoperta dalla maschera.
7. L’adenina si porta dietro il gruppo X, quindi togliendo la maschera si ha una zona con palline
blu e una zona con palline rosse.
8. Si mette la maschera in un’altra zona ruotandola.
9. Con l’irraggiamento si rimuovono altre palline blu in una zona diversa dalla precedente.
10. Si aggiungono palline verdi (timina) unite alle blu, significa che si ha una timina legata al
gruppo protettore, la timina si andrà a legare nelle zone dove ci saranno gruppi ossidrilici
liberi.
11. Si ottiene quindi una zona verde (di timina) e sopra lo strato di gruppi protettivi e si toglie
la maschera e si ripete il ciclo.
12. Si va avanti in questo modo fino a quando si impilano 25 nucleotidi in sequenze diverse a
seconda della regione del microarray.
Questo metodo si chiama anche Photolitographic masking ed è adottata dall’azienda Affymetrix che
produce microarray.
12
Scalfaro/Grieco Nobile
31 Bionanotecnologie (Ciardelli)
11/05/2022
Microarrays – Tecnica elettrica
Nel caso di catene più lunghe si parte da nucleotidi preformati e si usa la tecnica elettrica.
a) In questa tecnica si ha il chip con
l’attachment layer in cui inserisco dei
contatti metallici (le barrettine nere
nella figura). Caricando positivamente
uno di questi contatti, si attirano le
sonde di cattura che sono cariche
negativamente (dato che il fosfato ha
uno scheletro negativo). Una volta che
incontrano la zona si creeranno le
reazioni con l’attachment layer quindi
quando si rimuove la carica loro
rimangono legate lì.
b) Si ripete l’operazione per tutte le altre
ragioni, immobilizzando sequenze
uguali o sequenze diverse a seconda di
come si sta costruendo l’array.
c) Si introduce il probe target che si vuole identificare. Si immagini che questo campione,
marcato fluorescente perché si vuole vedere il segnale, sia costituito da due tipi di catene
diverse: quelle unite e quelle tratteggiate (vedi figura), questo simboleggia due sequenze
nucleotidiche diverse.
d) Si carica positivamente per esempio la zona centrale la quale attirerà tutte le molecole
indistintamente, in quanto vengono attirate non in base alla sequenza nucleotidica ma
perché sono cariche negative avendo lo scheletro fosfato. Perciò tutte le molecole si
concentrano sulla mattonella caricata positivamente.
e) Successivamente si inverte la polarità cioè da carica positiva a negativa. In questo modo, le
molecole non complementari (quelle disegnate unite) si allontaneranno per la repulsione
elettrostatica dovuta alle cariche negative sia sul metal contact sia sulla molecola; quelle
complementari (disegnate tratteggiate) si sono ibridizzate, i legami idrogeno a doppia elica
tengono ben strette le molecole non si possono allontanare nemmeno dandogli la repulsione
elettrostatica.
A questo punto si va a cercare la fluorescenza e se la si trova vuol dire che nel campione si aveva
una sequenza complementare a quella che si era precedentemente immobilizzato (nella figura b).
Rivedi immobilizazzione tra la capture probes e l’attachment layer, il quale rende reversibile il
legame una volta attirate le molecole con la carica.
Riassumendo: la tecnica ottica una serve per costruire le catene nucleotide per nucleotide, mentre
quella elettrica per immobilizzare selettivamente delle sequenze in delle regioni specifiche.
Attenzione: la tecnica ottica ed elettrica non sono da confondere con le tecniche di rilevazione. La
seconda di queste due è una tecnica elettrica ma poi la rilevazione la si fa tramite un rilevatore a
fluorescenza.
13
Scalfaro/Grieco Nobile
31 Bionanotecnologie (Ciardelli)
11/05/2022
Microarrays – Protocollo di analisi
Vista la tecnica di costruzione di un
microarray, si vede come si possono
ricavare
informazioni
tramite
il
microarray.
a) Si immagina di avere due DNA, uno
colorato in verde ed uno in rosso, che
derivano da due individui diversi.
b) Questi DNA si legano sul microarray il
quale contiene in principio tutto il
genoma umano, cioè tutte le possibili
sequenze che si possono trovare.
c) Si ha l’ibridazione.
d) Si produrrà un’immagine irraggiando il microarray con dei
laser che corrispondo ai colori con cui avevo colorato le
sequenze fluorescenti. Bombardando con il verde, si vede
dove questi DNA si sono ibridizzati sul microarray, lo
stesso faccio con il laser rosso vedendo dove si sono
ibridizzati i DNA rossi sul microarray. A questo punto
mescolo i due segnali, cioè li sommo: dove è finito solo il
verde vedo verde, dove è finito il rosso vedo solo rosso e
devo ci sono entrambi vedo giallo. Se avessi due campioni uguali vedrei
solo giallo.
e) Le differenze tra i due campioni possono voler dire che ci sono state
delle mutazioni, oppure che si parla di due individue diversi, oppure che
le cellule stanno producendo dell’RNA diverso. Queste informazioni le
ottengo leggendo il grafico che viene fuori da questo processo di
ibridazione, imaging e poi analisi di immagini computerizzata
opportunamente (una cosa così non si potrebbe fare a mano).
Analisi Genomica: ibridizzazione genomica comparativa (aCGH)
Si può mettere solo DNA e fare quella che si chiama ibridazione genomica comparativa, quindi si
confronta il DNA di un paziente rispetto al DNA di controllo. Per esempio, si esamina un bambino
malato rispetto al parente sano, si va a fare il confronto e si vede se ci sono mutazioni nel genoma
che hanno causato la malattia genica.
14
Scalfaro/Grieco Nobile
31 Bionanotecnologie (Ciardelli)
11/05/2022
Analisi Genomica: ibridizzazione genomica comparativa (aCGH) su CDNA
Si possono prendere due famiglie di cellule e fare
ibridazione comparativa sul cDNA.
Il cDNA è il DNA che si produce facendo una
trascrizione inversa dell’RNA messaggero.
Prendendo due famiglie di cellule, queste
produrranno un RNA messaggero diverso perché ad
esempio sono cellule tumorali e quindi producono
proteine diverse dalle cellule sane, perciò il loro
trascrittoma (cioè l’mRNA) sarà diverso. Sull’mRNA
non si può fare questa procedura direttamente, si
deve fare prima un’operazione di trascrittasi
inversa, produrre i cDNA corrispondenti (che si
ricorda essere l’unione degli introni) e a questo
punto si procede come prima e si vede dove sono
le differenze tra le due famiglie.
Domanda (Non si sente)
Risposta: o in fase di amplificazione o in fase di purificazione del campione si può fare un labeling,
cioè una marcatura del DNA, i DNA di diverse provenienze vengono colorati diversamente. Una volta
ottenuti i due DNA distinguibili si possono buttare sull’array e bisogna buttarli insieme poiché per
vedere le differenze devono ovviamente arrivarci insieme. Sul canale rosso, ad esempio, vedo il DNA
di A, su quello verde di B e dove si vede giallo vuol dire che i pezzetti di DNA erano uguali per A e
per B.
15
Cascone/Zito
32 BIONANOTECNOLOGIE (Ciardelli)
12/05/2022
Biomems-Esempi applicativi
Riassunto lezione precedente
Nella lezione precedente è stato spiegato come i vari sensori, che si sono imparati a conoscere,
possono essere integrati in un formato, che è quello del microarray, nel quale si raggruppano un
numero molto alto di elementi sensibili nello stesso microchip. L’elemento sensibile
prevalentemente più usato è quello che permette di analizzare campioni di materiale genetico e
determinarne differenze, sequenze e quindi, conseguentemente, possibili informazioni su patologie
in atto, mutazioni e identificazione di confronto tra DNA di individui
diversi.
Si è visto quindi un’immagine, riportata qui di fianco, che poi elaborata
al computer può fornire questo tipo di informazione.
Adesso, si vuole andare a ricapitolare e vedere degli esempi pratici legati
all’implementazione del microarray.
MICROARRAYS-PROTOCOLLO DI ANALISI
Si immagini di avere due campioni di DNA, uno marcato in verde che
proviene da cellule normali e l’altro marcato in rosso che proviene da cellule di tumore, che si
possono andare ad ibridizzare sul microarray. Si va a vedere cosa ne esce fuori: si avranno degli spot
verdi dove soltanto il DNA normale si è
ibridizzato, degli spot rossi dove si è ibridizzato
solo il DNA tumorale e infine degli spot gialli
dove invece avremo ibridizzazione comune di
entrambi i campioni.
Quindi in spot specifici, dove si trovano rosso e
verde che corrispondono a determinati geni
che si sono immobilizzati sul microarray, si
trovano delle differenze di sequenze tra le due
popolazioni (quella sana e quella tumorale).
Con questa operazione, che prende il nome di
ibridizzazione genomica comparativa (aCGH),
si può andare a identificare sul DNA se ci sono delle mutazioni che possono essere responsabili di
patologie.
Si immagini di avere un figlio di genitori sani, che però
manifesta qualche tipo di patologia che si sospetta di origine
genica. Si può prelevare il DNA da questo paziente, marcarlo
con un colorante verde e raccogliere il campione e poi,
eventualmente, amplificarlo con la PCR. La stessa
operazione si ripete sul controllo, che è l’individuo sano: si
prende il DNA, si marca con un altro colore e lo si utilizza
come controllo.
Adesso si ha quindi il DNA di controllo e il DNA del paziente
da analizzare; si mescolano in parti uguali i due campioni e si ibridizzano, ovvero si fa sì che le
sequenze complementari vadano a cercarsi sul microarray rivestito di frammenti di DNA genomico
1
Cascone/Zito
32 BIONANOTECNOLOGIE (Ciardelli)
12/05/2022
(sonde o cloni). Sul microarray posso avere tutto il genoma umano. A questo
punto si fa dunque l’ibridizzazione e si va a leggere il microarray: si possono
trovare punti di zone in cui si sono mobilizzati certi geni con ibridazione
uguale e in cui quindi non ci sono differenze tra i due campioni, oppure si
possono trovare zone rosse dove il controllo prevale su quello del paziente
e dove quindi vi è una riduzione del dosaggio di quello specifico gene nel
campione; oppure ancora, analogamente, si individua un aumento del
dosaggio laddove si trovano macchie verdi.
Tutto ciò si fa sul DNA e si vanno a vedere se ci sono delle mutazioni nel
genoma.
Si può approntare (preparare) questa ibridizzazione genomica comparativa
anche sul cDNA (DNA complementare che si ottiene per trascrizione inversa
del RNA messaggero o di un RNA in generale): si immagini di avere sempre
un campione B di cellule da cui si preleva l’RNA e un campione A, da cui si
preleva sempre l’RNA; si genera il DNA complementare (perché sul RNA non
si può fare ibridizzazione, in quanto non ha doppie eliche sufficientemente stabili); al contempo si
può anche marcare il campione usando, per esempio,
nucleotidi fluorescenti(quando si fa la trascrizione inversa si
sintetizza già il DNA rosso oppure il DNA verde). In ogni spot si
hanno sequenze diverse. Si va a leggere il campione,
prendendo, per esempio, la regione cerchiata in verde e
ingrandendola: si trovano dei punti verdi (qui il campione B
prevale su A, cioè esprime dei geni in maniera più intensa
rispetto ad A), dei punti rossi (dove A prevale su B, dove si ha
un’espressione di A di certi geni in maniera più intensa che di
B) e, infine, si trovano dei punti gialli dove rosso e verde si
equivalgono (dove i campioni A e B sono uguali e non si hanno
differenze di espressione genica). Qui si sta ricavando
un’informazione diversa  si sta guardando nei due campioni
se ci sono differenze nell’espressione genica e questo si
traduce, anche se non in maniera univoca ma con buona probabilità, in una diversa produzione di
specifiche proteine (per il dogma centrale della biologia molecolare DNARNAPROTEINA).
Adesso si vedranno due filmati in cui si vanno a vedere degli esempi applicativi.
2
Cascone/Zito
32 BIONANOTECNOLOGIE (Ciardelli)
12/05/2022
COMMENTO AL PRIMO FILMATO
Si vedono gli spot, dove ogni spot ha la sua sequenza e si vede come
questa ibridizzazione non è altro che una formazione di doppie eliche
spurie tra due sorgenti diverse. Si possono fare tante cose:
 Profilazione di espressione genica  si prende un tessuto, per
esempio il fegato, si estrae l’RNA messaggero che viene
espresso in quel momento, si produce il cDNA
complementare su questo mRNA, poi si prende il chip con
tutto il genoma (il microarray contiene pezzetti di genoma) e
si va ad ibridizzare il campione. I geni che sono espressi si
vanno ad identificare andando a vedere quali macchie sono
accese (andando a vedere la complementarietà tra il cDNA e
alcune sequenze mobilizzate in zone specifiche), dove cioè si
trova fluorescenza e si hanno quindi dei DNA positivi.
 Microarray di proteine  come analogia, si possono sempre usare gli anticorpi e mobilizzarli
sul chip. In questo caso ci saranno le proteine marcate (come sostituti dei segmenti di DNA
sui microarrays) che si potranno legare e che quindi si potranno andare ad identificare; si
possono identificare anche delle interazioni tra proteine (per esempio tra alcune proteine e
la proteina in oggetto, basta
andare a vedere dove c’è lo spot).
Le proteine marcate arrivano e
quelle
complementari
agli
anticorpi si ibridazzano nelle varie
regioni. Chiaramente le proteine
sono moltissime, quindi non si avrà
mai un array dove si hanno tutti gli
anticorpi per le proteine possibili.
 Analisi genomica comparativa, di cui si è appena parlato  si ha sempre un campione di
riferimento e uno da analizzare (Test vs. Control) colorati con colori diversi, messi insieme e
ibridizzati sull’array. Si fa un’analisi e si possono così identificare piccole e grandi delezioni o
guadagno di segnale. Si possono quindi identificare, nel genoma cellulare, eventuali
differenze che ci possono essere (per esempio: cambi di genoma tra cellule di individui
normali e cellule di individui malati, come nel ritardo mentale dove si possono confrontare i
cambiamenti che ci sono tra i genomi dei genitori e l’individuo patologico).
3
Cascone/Zito
32 BIONANOTECNOLOGIE (Ciardelli)
12/05/2022
COMMENTO AL SECONDO FILMATO
Si vedono le cellule tumorali e le cellule normali.
Successivamente viene isolato l’RNA.
Si prende il cDNA.
Il micro array viene preparato con un sistema robotico
che preleva i campioni
Li localizza nei singoli spot (con la tecnica top down).
4
Cascone/Zito
32 BIONANOTECNOLOGIE (Ciardelli)
12/05/2022
Un singolo spot ha tutte queste sequenze gialle di
cattura su cui si può ibridizzare il DNA.
Ci sono zone verdi dove prevale il tumore sul
normale, gialle dove sono uguali e rosse dove
prevale il normale sul tumore.
RIPASSO BASI DEL DNA
Un po’ di anni fa gli scienziati capirono che c’erano molti modi per studiare geni, cioè per esempio
mappandoli, inducendo mutazioni, clonandoli, analizzando proteine etc, secondo l’ingegneria
genetica e le biotecnologie. Il problema è che c’è un numero enorme di geni (nell’uomo sono 20
mila) e la capacità umana era di studiare uno o pochi geni alla volta, ma essendoci tantissimi geni,
studiare tutti i geni con l’approccio tradizionale, richiederebbe troppo tempo. Motivo per il quale si
è “inventato” il microarray, il quale permetteva di studiare più geni contemporaneamente; quindi
capire cosa fa ciascun gene in un singolo esperimento.
Quindi, se la genetica (XX secolo) studiava i singoli geni, la genomica (XXI secolo) è quella che,
sfruttando i microarray, studia migliaia di geni contemporaneamente.
Una delle cose che la genomica può fare è misurare espressione genica; a tal proposito si prendano
delle cellule diverse nel corpo umano: della pelle, dei muscoli, gli eritoblasti (che diventeranno
globuli rossi), cellule di Langerhans (che
producono l’insulina nel pancreas) e i
melanociti (cellule del pigmento che
permettono l’abbronzatura).
Queste cellule hanno tutte lo stesso DNA al
loro interno, salvo pochissime eccezioni, però
sono diverse le une dalle altre ed esprimono
dei geni differenti: si prendano ad esempio le
cellule del muscolo e si guardino 4 geni, i quali
saranno 2 geni accesi 1 e 2 geni spenti. La
cellula muscolare avrà attivi i geni per l’actina
e la miosina (invece i melanociti produrranno
la melanina, che è un pigmento, e le cellule di
Langerhans produrranno insulina).
1
Avere dei geni accesi significa produrre dell’mRNA in quel momento (cioè quando sono accesi) e far tradurre questo
mRNA in proteine.
5
Cascone/Zito
32 BIONANOTECNOLOGIE (Ciardelli)
12/05/2022
Quindi le cellule muscolari avranno i geni per l’actina e la miosina accesi e quelli per insulina e
melanina spente; invece, le cellule di Langerhans avranno i geni per l’actina e l’insulina accesi e i
geni per la miosina e melanina spenti; nei melanociti i geni per la melanina saranno accesi invece.
Quindi, se si può misurare la quantità di mRNA che è
presente in una cellula di un tessuto, si potrebbe fare
un catalogo genetico di quali tipi di processi biologici
sono in atto in quelle cellule in quel momento e
confrontando questi profili di espressione genica, si
può capire cosa rende le cellule differenti tra di loro
(questo sia tra cellule di tessuti sani, ma anche tra
cellule di tessuti sani e tessuti patologici). Lo
strumento che fa questo è il microarray, il quale
permette quindi di evidenziare in unico esperimento
le differenze di espressione genica tra due tipi di
cellule.
Come si fa il microarray? Si sequenzia l’intero genoma dell’organismo che si sta studiando (già è
stato fatto per gli uomini) e, con un grosso lavoro computazionale, si capisce dove i geni sono
localizzati nelle varie sequenze. Una volta fatti questi geni, si possono posizionare sul microarray
con dei sistemi robotici e poi si fanno dei test di controllo sulle varie coppie di geni per trovare quei
casi in cui la PCR non ha lavorato bene e si ripetono questi passaggi finché non si hanno sufficienti
coppie di geni. Queste catene sintetizzate vengono separate, al fine di avere delle catene libere e
pronte per l’ibridazione con il campione. Con i robot vengono poste le gocce di geni di DNA a singola
catena nelle varie file e colonne su una slide da vetro da microscopio e il microarray è fatto. I
calcolatori permetteranno anche di creare e gestire un database che abbia traccia di dove sono i
vari geni nel microarray, poi ci sono dei controlli di qualità (per esempio con sequenze target note,
per verificare che tutte gli spot contengano la stessa quantità di DNA di cattura, perché se si
confrontano i colori e ci sono quantitativi differenti, non saranno risultati attendibili).
Quindi si prende il DNA microarray: nell’esempio si prende un GeneChip, il quale è fatto con una
tecnica simile a quella dei computer (in questo caso non si crea, ma si utilizza un microarray
comprato, anche perché crearselo da soli è molto complicato). Preso il microarray, ci sono migliaia
gli spot, in cui ogni spot rappresenta un gene, quindi tante copie di una sequenza di DNA.
Si comincia l’esperimento avendo due tipi di cellule: quelle col
cancro e quelle sane. Per riconoscerle, si possono guardare al
microscopio confrontandone la forma, infatti, in diagnosi clinica
molto spesso si fa così. Ma la forma delle cellule col cancro non
sempre è diversa da quella delle cellule sane, quindi questo
approccio non è sempre efficiente.
Nelle cellule cancerose, ci sono dei geni corrotti che impediscono
di controllare la proliferazione (nel video il gene 3), quando questi
funzionano male, le cellule proliferano in maniera incondizionata.
Questo non succede sempre, spesso infatti in un tumore si
trovano più geni corrotti.
6
Cascone/Zito
32 BIONANOTECNOLOGIE (Ciardelli)
12/05/2022
In questo esperimento si usa un Dna
microarray per confrontare le differenze in
espressione genica tra cellule del cancro e
cellule sane.
Oltre al Dna, si usano dei campioni, uno
scalpello, una soluzione solvente, pipette e
puntali, Vortex, Microcentrifuga, colonne
con palline di Oligo-dT, tampone, coloranti,
soluzione di lavaggio e scanner.
Si vuole rispondere alla domanda: che
differenza c’è tra cellule sane e cellule col
cancro? Quali geni sono spenti o accesi?
Si misurerà l’mRNA.
Si prelevano cellule sia dal tumore sia da una porzione
di tessuto sano.
Successivamente, per isolare l’RNA si prende il solvente
e lo si inserisce nei due tubi contenenti le cellule.
In seguito, si inseriscono i due tubi nel vortex e poi nella
microcentrifuga.
Una centrifuga è uno strumento che gira a velocità
molto alta e separa materiali in base alla loro
dimensione e densità.
A questo punto, nei tubi avrò al fondo Dna, proteine e altro, e in superficie
avrò l’RNA. Il DNA non sta in soluzione perché le sue catene sono più
lunghe di quelle del RNA.
Ora si preleva il surnanatante dove c’è l’RNA: si faccia attenzione che qua
non si ha solo quello messaggero, ma tutti i tipi di RNA.
Come si isola l’mRNA? Si sfrutta la sua una coda di poli-A (basi tutte A).
Le colonne di Oligo-dT entrano in gioco adesso: sono infatti delle sfere
che si mettono in un tubo da cromatografia, funzionalizzate con delle
code di poli-T.
Si preleva quindi dal primo campione la miscela di RNA e la si inserisce
nel tubo contente le code di poli-T; in questo modo l’mRNA si aggancia
a queste code e il tRNA e rRNA vengono scartati.
(si procede nello stesso modo per l’altro campione).
La situazione è ora quella che si vede nella figura: l’mRNA ibridizzato con
le code di poli-T.
Ora è necessario recuperare l’mRNA: si usa la soluzione tampone.
L’accoppiamento tra basi A e T è molto solido se non si cambiano le
condizioni (come il pH,forza ionica); la soluzione tampone infatti riesce
a far staccare le code di poli-T da quelle di poli-A proprio cambiando
queste condizioni.
L’mRNA è ora purificato sia nelle cellule sane che nelle cellule col cancro.
7
Cascone/Zito
32 BIONANOTECNOLOGIE (Ciardelli)
12/05/2022
Successivamente si produce il cDNA marcato: si hanno due soluzioni (verde e rossa).
Il fatto di fare una copia di cDNA e di marcarlo, permette di visualizzarlo meglio e di avere ibridazioni
più stabili di quelle che si avrebbero nel RNA.
Quindi, si prende il mix di verde e lo si inserisce nel campione sano.
All’interno avviene la trascrittasi inversa con i nucleotidi marcati e, facendo partire la
sintetizzazione, si avrà il cDNA complementare al mRNA iniziale.
Si procede nello stesso modo per il campione col cancro, usando però un colorante rosso.
A questo punto si può procede con l’ibridazione su microarray: verranno separate e ibridizzate due
catene di DNA.
Per avere ibridizzazione basta che ci sia una sequenza complementare. In questo modo si avrà DNA
da due sorgenti diverse.
Nell’immagine si vedono i vari spot: in ognuno c’è la stessa sequenza di DNA, ma tra due spot diversi
avrò due sequenze diverse.
Sul computer si vedrà una legenda che dichiara in ogni punto che
gene si ha. (informazione data dal produttore).
Quindi, si procede con l’esperiemento svuotando entrambi i tubi
sul microarray, in questo modo le sequenze colorate di cDNA
andranno a cercare la catena complementare.
Nella regione rossa, il cDNA del cancro si è ibridizzato, nella
regione verde si è ibridizzato quello delle cellule sane e nella
regione gialla si sono ibridizzati entrambi.
Saranno rimasti sia cDNA non ibridizzati, sia spot bianchi dove non si è ibridizzato nulla.
Si prosegue con un lavaggio del microarray per togliere tutto ciò
che è legato in modo debole e si fa lo scan, cioè si leggono i colori:
si inzia con quello verde memorizzando la posizione di questi spot,
si procede con quello rosso e si mettono insieme le immagini.
Ogni spot che contiene sia rosso che verde, comparirà in giallo: i
geni espressi in queste posizioni sono gli stessi nelle cellule del
cancro e in quelle sane.
Guardiamo le macchie rosse: mostrano i geni che producono più
mRNA delle cellule cancerose rispetto alle cellule sane. Cosa vuol
dire? Che nel cancro sono sovra espressi, le macchie verdi invece
mi dicono quali geni sono sottoattivi. Ovviamente molto spesso
non tutti i geni rossi sono sovraespressi perché sono malati.
Mettiamo di essere un ricercatore interessato a studiare geni
che hanno un dato livello di attività nelle cellule del cancro
della pelle, quali macchie colorate sceglieremo di studiare?
Rosso, verde, giallo, nero? Quelle rosse. Possono essere
controllate da un gene andato a male, ad esempio il gene
4263. È uno dei geni noti per essere sovraespressi nelle
cellule del cancro. Esso produce una proteina il cui ruolo è
spegnere l’espressione di altri geni, di che colore ci
aspettiamo che siano le macchie dei geni spenti da questa
8
Cascone/Zito
32 BIONANOTECNOLOGIE (Ciardelli)
12/05/2022
proteina? Verde. Il gene invece 6219 è normalmente sovraespresso nelle cellule della pelle, è acceso
nelle cellule sane. Nel nostro campione di cancro questo gene ha un difetto: mentre il gene ancora
produce l’RNA messaggero, il difetto gli impedisce di essere tradotto in proteina. Di che colore è il
gene 6219 su macroarray? Giallo. Questo è una dimosttrazione di fallimento dell’approccio, di
impossibilità di rilevare tutti i problemi che può avere una popolazione di cellule cancerose. Noi
abbiamo una situazione in cui anche se l’espressione dell’RNA in genere indica uno spessore di
proteine, non è sempre il caso. In questo caso il gene 6219, acceso sia nel cancro che nelle cellule
sane, produce un RNA che produce poi le proteine. Nelle cellule del cancro il passaggio di
trascrizione è attivo, ma è disattivato quello di traduzione. Questa è una limitazione della nostra
tecnologia. Come si può risolvere? Dobbiamo utilizzare l’analisi proteica, cioè utilizzare dei
macroarray con ad esempio degli anticorpi. Quello che non può fare un microarray DNA è dirvi quale
gene è effettivamente corrotto e quale causa la malattia. Se c’è un gene che si comporta male infatti
può non essere identificato.
Andiamo a vedere un paio di esempi di macroarray.
Primo esempio applicativo: il SAGGIO IMMUNOLOGICO ha come scopo l’intercettazione di cellule
tumorali su un macroarray. L’idea è: ho il mio chip, lo faccio passare sopra delle cellule, se queste
cellule sono patologiche o sovraesprimono un recettore cellulare, io posso catturarle e quindi
quantificarle sul mio microchip. Quello che immobilizzo sul chip sono degli anticorpi di cattura e
riconosceranno le cellule riconsocendo quella specifica proteina che le cellule sovraesprimono sulla
loro superficie. Le caratteristiche di questo saggio dal punto di vista pratico sono: un chip
microfluidico con 11 percorsi cioè 11 canali cioè a micromosaico e su questi percorsi faccio muovere
le cellule e qui immobilizzo degli anticorpi. Le linee hanno 30 micron di larghezza. Sopra chiudo tutto
con uno strato di silicone, uso anticorpi CD-44 specifici per recettori che hanno cellule di topo.
Com’è fatto il mio chip?
In questa zona (in rosso) ho il caricamento, dove vado a mettere le mie cellule, cellule che per essre
rese visibili sono state transfettate con la proteina verde in modo che siano fluorescenti e io le possa
vedere nel loading pad. Il tutto è ospitato da un chip di silicio microfluidico ottenuto con tecniche di
microfabbricazione.
La seconda zona (indicata in blu) è la zona dvoe dispongo i miei anticorpi:
9
Cascone/Zito
32 BIONANOTECNOLOGIE (Ciardelli)
12/05/2022
Quindi ci sono questi 11 canali dove isolo e immobilizzo i miei anticorpi, questa è la zona di cattura.
Poi c’è una parte dove ci sono i canali (in giallo nell’immagine) e la parte finale dove ci sono i capillari
che aspirano (in verde).
Ovviamente il tutto è dotato di un termostato che regola la temperatura tra 20 e 27 gradi. Poi sotto
ho il silicone e sotto un vetrino che mi permette di osservare con il microscopio quello che sta
succedendo. Quello che io poi vedo lo vediamo in un filmato, dove alcune cellule passano senza
fermarsi mentre altre vengono immbolizzate nel canale.
Ci sono dei fotogrammi del filmato:
10
Cascone/Zito
32 BIONANOTECNOLOGIE (Ciardelli)
12/05/2022
I cerchiolini bianchi evidenziano quelle cellule che si sono immbolizzate.
Si può anche riportare la posizione delle varie cellule:
La prima cellula l’abbiamo vista muoversi fino a una distanza di 300 micron e poi l’abbiamo vista
fermarsi. Quindi posso fare questo per tutte e 6 le cellule che si sono fermate. Tutte le volte io ho
una parte di fluido in cui scorre la cellula, un punto in cui c’è il legame e dopodichè è immobilizzata.
Se ovviamente le cellule non hanno il recettore per lo specifico anticorpo, sono quelle cellule che
noi vediamo passare e scorrere via.
DOMANDA: Ogni canale contiene tutti gli anticorpi che vengono utilizzati o sono distribuiti
diversamente? Sono tutti uguali, serve per avere una sufficiente ripetibilità e anche velocità di
funzionamento del test.
11
Viola/Di Giacinti
33 Bionanotecnologie (Ciardelli)
12/05/2022
Esempio applicativo: i-insulin
In questa parte della lezione verrà trattato un dispositivo, un MEMS terapeutico chiamato iinsulin. Si tratta di un sistema intelligente per il rilascio di insulina per curare il diabete, che è una
malattia cronica con molte complicazioni. Ci sono oltre 425 milioni di persone affette da diabete
nel mondo. Per il diabete tipo uno, anche detto giovanile, il quale può essere scoperto anche tardi,
c’è bisogno di una terapia di insulina per tutta la vita. A volte è usato anche in caso di diabeti di
tipo 2 (non-insulino-dipendenti) se la resistenza all’insulina è combinata con ridotta produzione
della stessa da parte delle isole di Langerhans. In caso di diabete vi è un frequente monitoraggio
dei livelli di glucosio e quindi conseguentemente iniezioni sub cutanee o infusioni. Esistono anche
dei sistemi programmabili per il rilascio di insulina, che deve essere comunque sempre regolato in
base alle misure di glucosio nel sangue. Sarebbe molto utile sviluppare un sistema di risposta al
glucosio che accoppi il monitoraggio della glicemia con il rilascio di insulina, il tutto evitando il
coinvolgimento del paziente. Questo dispositivo dovrebbe rilasciare insulina in risposta ad alte
concentrazioni di glucosio, regolandone i livelli entro determinati range, con un rischio ridotto di
ipoglicemia. Questo dispositivo è stato sviluppato dall’Università del North Carolina, ed è chiamato
Smart Insuline Patch. Si tratta di un patch, un cerotto a microaghi che contiene al suo interno,
nella parte superiore, cellule beta pancreatiche, cioè quelle cellule in grado di rilasciare insulina.
Gli aghi dovrebbero perforare la pelle, fare la misura del glucosio, mandare il segnale alle isole del
Langerhans che devono quindi rilasciare insulina dalle cellule beta.
Quello rappresentato in figura a destra
è lo schema iniziale, così come fu
pensato inizialmente dai ricercatori.
Dopodiché c’è stato un improvement,
in quanto il dispositivo come era stato
pensato in un primo momento non era
funzionante. Inizialmente c’erano delle
capsule di cellule beta pancreatiche
incapsulate in un gel reticolato con
mezzo di coltura. Il gel era acido ialuronico. In caso di normale glicemia, le cellule avrebbero
dovuto produrre un basso quantitativo di insulina (nel disegno l’insulina è rappresentata dalle
stelline). In caso di innalzamento del livello di glucosio, invece, questo doveva migrare attraverso
gli aghi nella zona del patch dove erano contenute le cellule e queste, in risposta, avrebbero
dovuto produrre un maggiore quantitativo di insulina. Succedeva però che il segnale relativo
all’aumento della concentrazione di glucosio diffondeva molto lentamente e quindi le cellule non
erano in grado di rispondere efficacemente con un rilascio di insulina sufficiente nei tempi
richiesti.
Si aveva pertanto bisogno che il segnale
venisse in qualche modo amplificato. I
ricercatori che hanno sviluppato questo
sistema hanno poi sviluppato un sistema che
all’interno del lago amplificasse il segnale
relativo alla variazione della concentrazione di
glucosio. Nell’ago era contenuto alfa-amilosio,
quindi un componente dell’amido, che è un
polimero del glucosio. Si aveva poi il sistema
di amplificazione, costituito da quelle che in
1
Viola/Di Giacinti
33 Bionanotecnologie (Ciardelli)
12/05/2022
figura sono rappresentate come sferette azzurre, le GSA (Glucose Signal Amplifiers). Esse
contengono i tre seguenti enzimi:
• Glucosio ossidasi: converte il glucosio in acido gluconico in presenza di ossigeno (si veda la
reazione redox vista in precedenza per misurare il glucosio con i biosensori);
• Alfa-amilasi: idrolizza l’alfa amilosio in disaccaridi e trisaccaridi. Si trova anche nella saliva,
dove comincia la digestione dell’amido. Rompe l’amido in pezzettini piccoli da 2-3 molecole
di glucosio;
• Glucoamilasi: finisce il lavoro, finisce di tagliare questi legami e produce glucosio libero;
Nel sistema di amplificazione, il glucosio entra all’interno dell’amplificatore dove trova la glucosio
ossidasi che lo ossida convertendolo in acido gluconico consumando ossigeno. Questo consumo di
ossigeno provoca, per motivi che si analizzeranno in seguito, l’apertura del gel che incapsulava i
tre enzimi. Vengono rilasciati, oltre la glucosio ossidasi, anche l’alfa amilasi e la glucoamilasi.
Questi due enzimi vanno a degradare l’amido che era stato messo nell’ago al di fuori delle sferette
di gel, producendo quindi un quantitativo molto alto di glucosio, sufficiente per provocare la
produzione di insulina aumentata da parte delle cellule beta contenute nella parte superiore del
patch. La responsabile dell’apertura del gel è la reazione di ossidazione del glucosio, che avviene
consumando ossigeno per produrre acido gluconico e acqua ossigenata.
La riduzione
dell’ossigeno è la causa
dell’apertura del gel. Il
gel è fatto da acido
ialuronico
funzionalizzato per
avere gruppi di
nitroimidazolo
pendenti (in viola in
figura), che è
idrofobico, a differenza
dell’acido ialuronico che è invece una molecola idrofilica (è un componente della matrice
extracellulare). Quando lo si mette in un ambiente acquoso, questo polimero si organizza in
micelle: mette fuori l’acido ialuronico e all’interno dispone il nitroimidazolo, in quanto è
idrofobico.
Si susseguono le seguenti azioni: arriva il glucosio, entra dentro, l’enzima lo ossida, consuma
ossigeno, il consumo di ossigeno trasforma il gruppo NO2 del nitroimidazolo in gruppo NH2 (si
passa da nitroimidazolo ad amminoimidazolo). Le regioni interne idrofobiche diventano quindi
idrofiliche e le micelle si rompono, rilasciando all’esterno il loro contenuto.
Nell’immagine in alto a destra si nota che, come esempio, avevano inserito insulina all’interno. Si
trattava infatti di un sistema intelligente di rilascio di insulina che si apriva all’arrivo del glucosio.
Nell’amplificatore invece si mettono, all’interno delle strutture, due enzimi che, rilasciati,
aumentano il segnale di glucosio e l’insulina viene rilasciata in seguito dalle cellule.
2
Viola/Di Giacinti
33 Bionanotecnologie (Ciardelli)
12/05/2022
Nella figura a destra si
vede che le cellule beta
sono state incapsulate
in microgel di alginato
contenenti peptide
RGD e collagene, in
modo che avessero una
matrice, un ambiente
piacevole per le cellule.
I nuclei delle cellule in figura sono visibili in blu, mentre in verde si ha l’insulina. È stato fatto un
saggio Live-Dead (figura in alto a destra). Si vedono in verde le cellule vive a tre tempi diversi (in
particolare dopo 1,2 e 3 giorni). Il primo giorno ce ne sono tante vive, il secondo giorno
cominciano a comparire delle macchie rosse e dopo tre giorni scarseggiano. Il patch è stato fatto
con la tecnica del micromolding e ha dimensione di 10 mm2. Gli aghi sono fatti a piramide, la loro
base è di 400 micrometri, l’altezza di 800 micrometri e la punta di 5 micrometri. Il patch è in
silicone.
A destra si vedono i dati in uscita da una simulazione ex
vivo in cui è stato creato un sistema microfluidico. È
stato fatto passare glucosio come se si simulasse
l’ambiente che si avrebbe quando l’ago buca la pelle.
Nell’immagine in basso a destra, si vede il sistema
contenente le cellule.
Si va quindi a misurare in uscita l’insulina prodotta al
variare dell’alimentazione di glucosio:
• Il primo esperimento è stato fatto con un
tampone di Krebs-Ringer che serve in coltura
cellulare, quindi senza glucosio. Si nota che la
produzione di insulina rimane molto bassa (in
nero nel grafico in alto a destra);
• Dandogli invece un valore normo-glicemico
(100 mg/dL) comincia a produrre un po’ di
insulina. Si nota dal grafico a cinque giorni una
produzione piuttosto bassa di insulina e
costante, questo perché appunto si è a valori
normo-glicemici (in blu nel grafico).
• Se invece si sale a 400 mg/dL, quindi nel caso di
una glicemia molto alta, che però
potenzialmente non può esserci, si vede che la produzione di insulina aumenta fino a
continuare per 5 giorni (in verde).
1. How Does a DNA Microarray Work?
https://www.youtube.com/watch?v=pWk_zBpKt_w
2. Microarray Method for Genetic Testing
https://www.youtube.com/watch?v=AhnTT6-Jgcg
3
Viola/Di Giacinti
33 Bionanotecnologie (Ciardelli)
12/05/2022
NANOSTRUTTURE DI CARBONIO
Si ha un foglio di spessore monoatomico di carbonio
grafitico (grafene) che si può tagliare e ripiegare in vario
modo. Se questi fogli vengono ritagliati e ripiegati per
formare una sfera si formano i fullereni (1), se vengono
ripiegati a cilindro si ricavano nanotubi di carbonio (2) e,
infine, se vengono impilati, danno origine a nanoparticelle di
grafene (3), piccolissimi, sottili e planari fogli di carbonio
grafitico monomolecolare.
Storia delle nanostrutture di carbonio
Nel 1985 Kroto e altri trovarono evidenza del C60 (cioè il fullerene con 60 atomi di carbonio) in
un’analisi di spettroscopia di massa di campioni di carbonio evaporati. Qualche anno dopo,
nell’ambito dello studio dei fullereni furono scoperti i nanotubi di carbonio a parete multipla. Fu
un incidente nella ricerca dei fullereni ma in realtà si scoprì che essi avevano proprietà di
conducibilità elettrica e meccaniche molto interessanti. Nei primi anni 90 si passò quindi alla
sintesi di nanotubi di carbonio anche a singola parete e nel 1995 furono usati come emettitori di
campo. Negli anni seguenti fu dimostrato il primo transistor a nanotubi di carbonio, vennero
integrati nei circuiti di logica ne emerse l’intrinseca superconduttività etc. Solo più tardi, in
particolare nel 2004, fu scoperto il grafene.
I fullereni
Il Buckminsterfullerene fu il primo fullerene ad essere scoperto.
Si tratta di una molecola a 60 atomi di carbonio, chiamata così
per la somiglianza alla cupola geodetica dell’architetto Richard
Buckminster Fuller. Il C60 è costituito da un icosaedro troncato
(ci sono sia esagoni che pentagoni nelle facce come nei palloni
da calcio). Poi furono scoperti anche il C70, il C80 e altri fullereni a diverso numero di atomi di
carbonio. Nei reattori sottovuoto in cui si faceva il fullerene e si mettevano due elettrodi di
grafite, in particolare un catodo di grafite pura e una grafite impaccata in ossido di metallo usata
come anodo, questi venivano collegati ad un generatore e grazie all’imposizione di un’alta
differenza di potenziale si generava una scarica elettrica, la quale decomponeva la grafite dando
vita ai fullereni. I fullereni sono usati in sintesi organica in quanto donatori di elettroni, possono
cioè portar via i radicali perché ha gli elettroni poco identificati nei legami e perciò interagiscono
facilmente con altri, ma hanno anche applicazioni come materiali di rinforzo, ad esempio nelle
matrici polimeriche, per migliorarne le proprietà meccaniche. Furono anche proposte le celle a
combustibile degli hard disk. Al MIT è stata messa appunto una tecnologia di massa per la
produzione in massa di fullereni.
I nanotubi di carbonio
I nanotubi di carbonio sono filamenti sottilissimi, di dimensioni nanometriche. Dai reattori escono
nanotubi organizzati in placchette, che poi si possono disperdere opportunamente. Sono stati
4
Viola/Di Giacinti
33 Bionanotecnologie (Ciardelli)
12/05/2022
prodotti per la prima volta in un reattore simile a quello per fullereni a cui erano state apportate
alcune modifiche. Si tratta di una fibra molto resistente, e molto promettente per sostituire il
silicio, essendo un semiconduttore.
Si può immaginare un nanotubo di carbonio come un
foglio di grafite arrotolato intorno ad un cilindro, con
applicati alle due estremità due emisferi di fullerene.
Quello che successe nei reattori probabilmente è che
il fullerene si deformò via via e si allungò. In genere si
effettuano dei processi ossidativi per rimuovere le calotte, per avere cioè dei nanotubi aperti, il
carbonio in queste zone è più reattivo quindi si adoperano reazioni acide o basiche per staccare le
calotte dalla struttura centrale. I primi erano a parete multipla, costituiti da più nanotubi
concentrici. Successivamente furono scoperti quelli a parete singola.
Quelli a parete singola hanno lunghezze di diversi mm e diametri di circa 1-1.5 nanometri (sono
pertanto assimilabili a strutture monodimensionali).
Geometria dei nanotubi di carbonio
A seconda di come sono disposti gli atomi di carbonio nel
nanotubo, si possono avere diametri diversi e struttura del
reticolo diversa. Si hanno varie possibilità:
• nanotubi a poltrona (armchair);
• nanotubi con disposizione chirale, in cui l’unità
ripetente si avvolge diagonalmente lungo il
nanotubo;
• nanotubi a zig-zag, dove gli esagoni sono disposti
perpendicolari alla lunghezza (quindi paralleli al diametro).
I primi sono metallici, hanno un’alta conduzione. Quelli chirali sono semiconduttori per 2/3 e per
1/3 metallici e la stessa cosa vale per quelli a zig-zag. Sono invece tutti molto simili a livello di
proprietà meccaniche.
L’orientamento può essere descritto dal vettore chirale, che descrive la direzione di ripiegamento.
Se si pone un sistema di riferimento nel nanotubo (ad esempio in un punto del reticolo) e si
congiunge con due vettori quel punto con altri due punti
più distanti del reticolo (vettori a1 e a2), la loro risultante
definirà una direzione. Il vettore chirale (c) sarà una
combinazione lineare di questi due vettori di reticolo: c =
n1*a1 + n2*a2, dove a1 e a2 sono i vettori del reticolo e
n1 e n2 sono due numeri interi.
I nanotubi n-0, ovvero dove n1 è n e n2 è 0, sono
classificati come zig-zag. È come se il vettore chirale
avesse una sola componente, in quanto una delle due è
pari a 0. Se invece n1 e n2 sono uguali, il vettore va lungo
la diagonale e li classifico come armchair. Infine, tutti gli
altri in cui n1 e n2 sono diversi tra loro e diversi da 0, hanno disposizione chirale.
5
Viola/Di Giacinti
33 Bionanotecnologie (Ciardelli)
12/05/2022
Un nanotubo in cui la combinazione di 2n1+n2 = 3q (con q un numero intero), sarà un nanotubo a
struttura metallica. Se si fa l’esempio con gli armchair, che sono per l’appunto metallici, il
ragionamento torna. In essi n1=n2, pertanto 2n1+n2 = 3n2.
Nei zig-zag invece, i quali hanno n2=0:
• Se n1=1, 2n1=2 (non è multiplo di 3);
• Se n1=2, 2n1=4 (non è multiplo di 3);
• Se n1=3, 2n1=6 (multiplo di 3)
È stato infatti detto che i nanotubi con orientamento zig-zag sono per 2/3 semiconduttori e per
1/3 soltanto metallici. Ogni 3 numeri se ne ha sempre uno che è multiplo di 3.
Per quanto riguarda le proprietà meccaniche, i nanotubi di carbonio sono molto resistenti,
nonostante siano 50000 volte più sottili di un capello, circa 80 volte più dell’acciaio, con un
modulo di Young compreso tra 1-6 TPa. Resistono meno a compressione che a trazione ma sono
molto flessibili. Ci hanno fatto anche dei cantilever.
Tecniche di produzione
Le tecniche per produrre i nanotubi sono 4: arco elettrico, vaporizzazione laser, forno solare,
deposizione chimica per evaporazione (CVD).
Le prime tre tecniche si basano sulla vaporizzazione di un gruppo di grafite ad altissima
temperatura, l’ultima invece sulla decomposizione di un precursore gassoso come, ad esempio, il
metano.
In generale si ha bisogno di una sorgente di carbonio e di un catalizzatore metallico.
• Arco elettrico: tecnica che assomiglia molto alla
fornace per fare fullereni. Camera a vuoto, anodo e
catodo di grafite. Si riempie la camera di gas inerte, si
fa il vuoto controllato, si applica una differenza di
potenziale di circa 20 V tra gli elettrodi che vengono
avvicinati fino a che non si ha una scarica elettrica di
50-200 A. Le temperature di 4000 gradi fanno
sublimare il carbonio che si deposita sulle pareti del
reattore, dove si forma una sorta di ragnatele che
contiene varie forme diverse di carbonio (la resa in nanotubi è circa il 30%). Con opportuni
catalizzatori si possono ottenere sia a parete singola che doppia. I nanotubi vengono lunghi
circa 50 micrometri, non di più.
• Vaporizzazione laser: è una variazione del metodo
dell’arco elettrico. In una fornace a 1200 gradi si
colpisce la grafite con un raggio laser che provoca la
sublimazione, vaporizzazione e deposizione del
carbonio su un collettore di rame. Si producono molti
più nanotubi da questa tecnica (resa al 70-90%).
• CVD: in questa tecnica si prende un gas contenete
carbonio (metano, ossido di carbonio...) e si usa un
catalizzatore metallico finemente disperso (Co, Ni…). È un metodo continuo, il che è un
vantaggio dal punto di vista industriale. Le rese sono variabili dal 20 al 100%, i nanotubi
sono più lunghi ma spesso sono a multipla parete e con molti difetti.
6
Viola/Di Giacinti
33 Bionanotecnologie (Ciardelli)
12/05/2022
Nell’immagine sottostante si nota che si possono fare anche depositi di nanotubi su strutture
realizzate per soft litography.
Come si può controllare il bilancio tra nanotubi a singola e multipla parete?
Il carbonio allo stato vapore (ad esempio per decomposizione dell’idrocarburo) si assorbe sulla
superficie libera del catalizzatore, che è più freddo, e comincia a diffondere all’interno (seve per
alimentare la crescita del tubo). Questo può avvenire attraverso due diverse modalità: la Tip
growth(2) o la Extrusion on root growth (1). Può succedere che in un caso il carbonio diffonde e
poi comincia la crescita dei nanotubi (Extrusion on root growth). Qui il supporto metallico rimane
in fondo ai nanotubi. Altrimenti ci può essere la modalità Tip growth, in cui il carbonio diffonde più
al disotto del catalizzatore e comincia a spingerlo in alto, provocando la crescita del nanotubo con
la particella di catalizzatore metallico in cima.
Ciò che in questi processi di crescita determina la formazione di nanotubi a multipla o singola
parete, è la tappa cineticamente determinante del processo di crescita. Se lo stadio lento prevede
diffusione del carbonio nella particella si vedono crescere dei nanotubi a parete multipla. Se
invece lo stadio lento è l’alimentazione del carbonio allora questo diffonde uniformemente e si
hanno nanotubi a singola parete.
7
Romano/De Simmeo
34 Bionanotecnologie (Ciardelli)
13/05/2022
Riprendiamo dalle proprietà elettriche dei nanotubi: una delle caratteristiche di interesse è la loro capacità
di conduzione che possono essere sia di tipologia metallica che semiconduttori (a seconda della struttura del
reticolo cristallino). Questo è molto interessante perché sono degli oggetti miniaturizzati che, per le loro
proprietà elettriche, potrebbero sostituire molti dei materiali utilizzati in elettronica che sono
prevalentemente a base silicio (slide 10).
Abbiamo visto, inoltre, la relazione empirica tra il reticolo cristallino del nanotubo e le sue proprietà elettriche
(slide 11).
Riprendiamo le proprietà elettriche di
questi sistemi, cioè del grafene e dei
nanotubi, rispettivamente estesi in una e
due direzioni. Possiamo immaginare il
grafene come un piano in cui ci sono gli
atomi di C impegnati nei legami con altri
due atomi di C, che quindi condividono gli
elettroni con gli altri atomi di C. Gli
elettroni non ibridizzati (𝜋, sp2) possono
essere condivisi e si troveranno sopra o
sotto il piano del foglio di grafene →
quando chiudiamo il piano per formare il
nanotubo le cose diventano ancora più
interessanti poiché confiniamo gli elettroni
nello spazio interno del nanotubo, che è
uno spazio completamente vuoto:
l’elettrone può quindi viaggiare senza attrito all’interno del nanotubo. Il cammino libero dell’elettrone (l) è
molto maggiore della lunghezza del nanotubo (L) e quindi potenzialmente dei due estremi collegati ad una
differenza di potenziale. Si ha quindi un trasporto di corrente chiamato trasporto balistico, per cui l’intensità
della corrente è solo dipendente dalla differenza di potenziale (a differenza dei circuiti normali, dove la
conduzione avviene nei metalli, la lunghezza del circuito è molto più grande del cammino libero della carica
per cui l’elettrone per muoversi deve districarsi tra gli altri atomi del reticolo).
La caratteristica di semiconduzione o conduzione dipende dalla differenza di energia che c’è tra l’ultimo stato
popolato (orbitali di valenza) e gli orbitali di conduzione, come nei metalli; questa differenza di energia è
legata al livello fermi e mentre nei semiconduttori c’è una differenza di energia tra gli ultimi orbitali di
conduzione e i primi di valenza, questo non succede nei nanotubi conduttori (questo è dovuto alla geometria
del nanotubo e alla struttura del reticolo cristallino).
Abbiamo inoltre visto i metodi di preparazione dei nanotubi,
riprendiamo dalla purificazione dei nanotubi. In tutti i metodi
che utilizziamo non produciamo solo nanotubi ma anche altre
forme di carbonio (ad esempio il fullerene, forme di carbonio
amorfo come il carbonio turbostrato utilizzato per il
rivestimento di protesi valvole cardiache al fine di renderle anti
trombogeniche ecc…). Le impurezze non carboniose e le
particelle metalliche derivano dal fatto che durante il processo
usiamo dei catalizzatori, cioè dei metalli (ad esempio nel CVD,
unico metodo in cui uso dei precursori gassosi invece della
grafite come sorgente di carbonio, è necessario eliminare i
granuli di supporto).
1
Romano/De Simmeo
34 Bionanotecnologie (Ciardelli)
13/05/2022
Questo generalmente comporta una perdita di più del 90% dei nanotubi prodotti e a un loro danneggiamento
(bisogna trovare il giusto compromesso tra resa e purezza del prodotto stesso).
I metodi che si utilizzano per eliminare le particelle di catalizzatore sono:
• Metodi chimici: ossidazione e trattamento con acidi. Con l’ossidazione o la riduzione selettiva si
sfrutta la maggiore reattività del legame C-C nelle impurezze rispetto al legame C-C nel nanotubo.
Tra le reazioni più comuni abbiamo:
o Ossidazione con permanganato: in questo caso si usa il permanganato di potassio in
soluzione acida, per cui si forma CO2, biossido di manganese e perossido di C che non è nei
nanotubi, perché i nanotubi sono più resistenti a questo trattamento
o Ossidazione all’aria: con l’ossigeno il carbonio diventa CO2 o CO a seconda dell’efficienza
dell’ossidazione
o Riduzione con idrogeno ad alte temperature (900°C per 4,5 h)
Sia l’ossidazione che la riduzione sfruttano la maggiore reattività chimica del carbonio amorfo e dei
fullereni rispetto al carbonio dei nanotubi.
• Metodi fisici: sublimazione sottovuoto ad alta temperatura. I metodi fisici più comuni sono la
filtrazione, la centrifugazione e la microfiltrazione, quindi dei metodi di separazione che si basano
sulle dimensioni delle particelle da isolare, non c’è un’aggressione chimica del substrato.
Il campione finale puro è il risultato dell’eliminazione di gran parte del materiale che avevamo all’inizio.
Per eliminare le particelle del supporto, poiché nel CVD si lavora su un catalizzatore supportato, esso deve
essere separato dai nanotubi. Essendo in genere a base Silicio, si può utilizzare acido nitrico (HNO3) o acido
fluoridrico (HF) che dissolvono il supporto (HF forma 6F4 che è volatile e pertanto si disperde nell’aria);
successivamente si fa una filtrazione e una essiccazione per recuperare il nanotubo.
Grafene
Il grafene, sebbene dal punto di vista concettuale e geometriche è la forma più semplice rispetto al fullerene
e ai nanotubi, è l’ultimo scoperto tra i tre.
Il grafene è un monostrato di atomi di carbonio, organizzati in
anelli di “benzene” (tra virgolette poiché nel benzene il C è
legato a 2 C e 1 idrogeno, nel grafene invece il C è legato a 3C).
Il grafene si ottiene per esfoliazione chimica, crescita
epitassiale (CVD), epitassia su superfici cataliche (Ni, Pt) e
clivaggio meccanico.
→ I metodi per realizzare il grafene sono o di tipo meccanico
(si effettuano dei tagli sulla grafite), oppure si può fare una
esfoliazione chimica sulla grafite, una crescita epitassiale da
2
Romano/De Simmeo
34 Bionanotecnologie (Ciardelli)
13/05/2022
CVD (tipo quella dei nanotubi) e, eventualmente, anche una crescita su catalizzatori (questo non molto fatto
in realtà…).
Se guardiamo attentamente al microscopio elettronico il grafene, esso non è piatto come siamo abituati ad
immaginarlo ma forma delle dune dette “ripples”.
Il grafene è molto interessante per le sue proprietà di
conducibilità poiché vi è, come detto, un trasporto
balistico e una resistenza quantizzata (“Effetto Quantum
Hall”). Per quanto detto, il grafene è molto più
conduttivo del silicio: è possibile quindi realizzare
elettronica a base di carbonio con il grafene, ad alto
rendimento e bassa potenza (per il discorso fatto prima)
Utilizzo del grafene in campo biomedicale
Il grafene si presta molto bene a modifiche superficiali, anche di tipo chimico, quindi anche ad operare
strategie di targeting o anche strategie di risposta allo stimolo. Il grafene viene quindi principalmente
applicato nel:
- Rilascio di farmaco
- Terapia oncologica
- Diagnostica combinata alla terapia dei tumori (chemioterapia guidata dalla RM→ si può fare
terapia genica, fototerapia, radioterapia, ecc. ci sono diverse applicazioni in cui il grafene può trovare
un possibile utilizzo.)
Esempio applicativo: è stato sviluppato un sistema di
nanoparticelle di ossido di grafene. Per poterlo utilizzare
in ambito biomedicale, infatti, il grafene ha bisogno di
essere reso più solubile in acqua e quindi dobbiamo
ossidarlo. In questo esempio il grafene, in particolare,
oltre ad essere ossidato viene anche rivestito con il PEG e
viene utilizzato per il rilascio combinato di due farmaci
chemioterapici. Nella chemioterapia, infatti, sappiamo
che l’utilizzo di due farmaci molto spesso è molto più
efficace del singolo farmaco per gli effetti sinergici che si
creano tra i due farmaci.
Il grafene, come si vede dalla slide dell’esempio, è un singolo strato bi-dimensionale costituito da carbonio
ibridizzato sp2; inoltre, esso è un eccellente candidato per ospitare farmaci poiché ha un’altissima area
superficiale (è un piano atomico). In questo scenario sono molto interessanti i derivati del grafene, in
particolare l’ossido di grafene. L’ossido di grafene (GO) è un grafene trattato chimicamente per presentare
sulla superficie gruppi ossidrili (OH), carbonilici (C=0), carbossilici (COOH) ed epossidici. Questi gruppi
funzionali sono il risultato dell’ossidazione effettuata con metodi simili a quelli visti prima per la
funzionalizzazione, per esempio il permanganato. Questi gruppi funzionali si troveranno sempre sulla
superficie (perché abbiamo un materiale bidimensionale) e rendono il grafene solubile in acqua (il grafene
da solo è inerte e insolubile in ambiente acquoso), biocompatibile e anche multifunzionale (le funzionalità
possono essere sfruttare per legare farmaci o molecole che guidino le nanoparticelle verso uno specifico
bersaglio). Si possono funzionalizzare anche i nanotubi per avere dei gruppi carbossilici da utilizzare poi per
vari scopi.
3
Romano/De Simmeo
34 Bionanotecnologie (Ciardelli)
13/05/2022
Nello specifico, in questo esempio vengono sfruttati i
gruppi carbossilici del grafene ossidato (GO); per prima
cosa il GO viene legato con un PEG, polietilenglicol, (a 4
braccia, con dei gruppi NH2 all’estremità). Si fanno
reagire gruppi carbossilici con gruppi amminici e il PEG si
legherà chimicamente all’ossido di grafene impegnando
uno o al massimo due gruppi amminici per molecola (per
come è fatta la molecola). In questo modo passo da GO a
pGO (PEG grafen oxide).
Si considera il primo farmaco antitumorale, il cisplatino (è
legato a due gruppi amminici e due clori) viene ossidato
con acqua ossigenata (da platino4 passo a paltino6 ), viene fatto reagire con anidride succinica (
)
→ La molecola così ottenuta viene indicata con “Pt” nella slide in alto e presenta un gruppo OH che si lega ai
gruppi amminici rimasti liberi dal PEG (sul pGO). Attraverso un legame ammidico legherò il cisplatino al PEG
che a sua volta è legato al GO, quindi ottengo il pGO-Pt. In questo modo si lega covalentemente al GO un
farmaco chemioterapico, il cispaltino.
A questo punto aggiungo il secondo farmaco, la doxorubicina (DOX), che è un farmaco idrofobico. Questa
viene inglobata nell’ossido di grafene grazie alla presenza dei gruppi aromatici (interagisce per interazione
idrofobica con il grafene). Il prodotto finale è il pGO-Pt-DOX che contiene quindi i due farmaci chemioterapici:
cisplatino e doxorubicina.
Le particelle vengono successivamente caratterizzate per la loro dimensione (la dimensione della molecola
non cambia di molto tra una reazione e l’altra: si raggiunge una dimensione finale di circa 161 nm) e per il
potenziale z (negativo per ogni passaggio ma il valore in termini di valore assoluto diminuisce un pò, le
particelle si respingono e non si agglomerano).
Una volta preparate le nanoparticelle, queste
vengono testate in termini di attività biologica:
verifico che uccidano le cellule tumorali.
Il primo esperimento che viene fatto è con due
linee cellulari (CAL-27 e MCF-7) che vengono
mantenute in coltura osservandone l’attività a
24h e a 48h trattandole con dose crescenti dei
vari principi attivi.
Il confronto avviene tra il pGO, il pGO-Pt, il
pGO-DOX, il pGO-Pt-DOX e il Pt-DOX.
Vediamo che il pGO non ha alcun effetto sulle
cellule tumorali, la loro attività cellulare
rimane costante in funzione del tempo e della
dose. Invece se trattate con il Pt-DOX, il doppio
chemioterapico, (terapia classica) vi è un forte calo della vitalità cellulare proporzionale alla dose sia per le
24h che per le 48h. Effetti molto minori si ottengono sia con pGO-Pt che con pGO-DOX. Combinando insieme
i due farmaci con il grafene ossidato (pGO-Pt-DOX), l’effetto è molto vicino all’effetto dei due farmaci
combinati (Pt-DOX) soprattutto a 48h. Da questo grafico valuteremmo come inutile l’utilizzo di cisplatino e
doxorubicina insieme al grafene ossidato, poiché sembra che la terapia Pt-DOX abbia più effetto! Tuttavia, è
importante considerare che in questo caso ci troviamo di fronte ad una cultura cellulare, dove l’effetto di
targeting legato alla nanomedicina è un targeting passivo, poiché non ho legato delle molecole di targeting
ma sfrutto solo il fatto che ho delle dimensioni nanometriche del carrier. Il targeting passivo sfrutta il fatto
che le particelle devono circolare e poi man mano si accumulano nel tumore sfruttando la vascolarizzazione
fenestrata. Per capire se ci sono dei vantaggi si deve passare agli esperimenti in vivo, ovvero su animale.
La sperimentazione è stata condotta in vivo su un topo. Si è preso il topo con il tumore umanizzato e sono
state iniettate le nanoparticelle in coda. Quello che ci si aspetta è che le particelle cominciano a circolare ed
a entrare dentro le cellule tumorali per endocitosi. L’ambiente dell’endosoma riuscirà a rompere il legame
che tiene legati i due farmaci alla nanoparticella. In questo modo i due farmaci svolgeranno il loro lavoro→
4
Romano/De Simmeo
34 Bionanotecnologie (Ciardelli)
13/05/2022
a questo punto il cisplatino tende a danneggiare il DNA delle cellule tumorali, mentre il DOX tende ad
impedire la replicazione del DNA delle stesse. Il DOX si intercala con gli anelli aromatici tra le basi aromatiche
del DNA e ostacola il processo di replicazione.
Nel grafico a destra, rappresentativo
dell’esempio in vivo, è stata misurata la
crescita del tumore nel topo (volume del
tumore) in funzione dei giorni. Se il topo viene
trattato con soluzione salina (PBS) ovviamente
la crescita del tumore è esponenziale, così
come nel caso di pGO, non ha nessun effetto
sul tumore. Nel caso della terapia
farmacologica, ovvero quando si inserisce il
farmaco da solo o legato chimicamente alle
nanoparticelle di grafene, la crescita del
tumore è molto più lenta e rallenta ancora di
più se i due farmaci vengono iniettati
utilizzando pGO-PtDOX. Questa differenza di
effetto del pGO-PtDOX rispetto ai farmaci
liberi (Pt/DOX) indica che effettivamente i farmaci vengono portati all’interno delle cellule tumorali riescono
in modo efficace ad inibirne la crescita rispetto alla terapia con il farmaco tradizionale.
Un’altra cosa da fare sono dei test con cellule sane, per esempio dei fibroblasti. Si è osservato che la tossicità
dei chemioterapici è minore quando si incapsulano nel grafene.
5
Download