Moschetta/Cangelosi 01_BIONANO (Ciardelli) 02/03/2022 CHE COSA SONO LE NANOTECNOLOGIE? Richard Feynaman, il Padre della Nanotecnologia, il 29 dicembre 1959 tenne un famoso discorso: "Ciò di cui voglio parlare è il problema di manipolare e controllare le cose su una piccola scala. […] Ma non mi spaventa affrontare anche la questione finale, cioè se -in un lontano futuro -potremo sistemare gli atomi nel modo in cui vogliamo; proprio i singoli atomi, al fondo della scala dimensionale! Per quanto ne so, i principi della fisica non impediscono di manipolare le cose atomo per atomo. Non è un tentativo di violare alcuna legge; è qualcosa che in principio può essere fatto, ma in pratica non è successo perché siamo troppo grandi’’ (Adesso queste cose si fatto, l’IBM di Zurigo hanno dei manipolatori, il microscopio ASTM, che per mette di spostare gli atomi e farli, anche, reagire tra loro) = si ha difficoltà nel manipolare su questa scala; durante il corso capiremo da cosa derivano queste difficoltà e come in parte siano state superate negli anni. L’ AVVENTO DELLE NANOTECNOLOGIE 1959 R. Feynman prevede la nascita della nanotecnologia 1974 Primo dispositivo elettronico molecolare brevettato (IBM) 1985 Scoperta dei fullereni 1986 Invenzione del microscopio ad effetto tunnel (IBM-Zurigo)→ microscopio che riusciva a vedere in un certo qual modo i singoli atomi, quindi vedere alla nanoscala (non poteva fare il microscopio ottico poiché la lunghezza d’onda della luce è troppo grande) 1988 La Dupont progetta la prima proteina artificiale→ costruì una molecola artificiale che ha dimensioni nanometriche 1989 D.M. Eigler (IBM) scrive il nome della sua azienda con 35 atomi di Xenon 1991 S. Iijima scopre i nanotubi di carbonio → che non sono grafite e diamante ma hanno appunto una struttura nanometrica 1993 Nasce alla Rice University (USA) il primo laboratorio di Nanotecnologie 2001 IBM e Università di Delft (NL) creano il primo circuito logico a base di nanotubi 2002 Cornell University (NY) realizza il primo nanomotore 2003 USA stanziano 3.7 MLD di $ in 4 anni per la ricerca Non esiste ancora una definizione univoca di nanotecnologia, in particolare abbiamo: “Nanotechnology is the design, characterization, production and application of structures, devices and systems by controlling shape and size at nanometer scale.” Royal Society & The Royal Academy of Engineering (UK,2004) La definizione sopra, benché sia stata formulate nel 2004 è tutt’ora valida. “Nanotechnology is the understanding and control of matter at dimensions of roughly 1 to 100 nanometer, where unique phenomena enable novel applications.” National Nanotechnology Initiative (NNI) (USA2000) Quest’ultima definizione è importante perché definisce la scala dimensionale delle nanotecnologie, dove fenomeni unici permettono nuove applicazioni. Allora in sintesi, con nanotecnologie di intende la capacità di osservare, misurare (quindi comprendo) e manipolare (quindi progetto) la materia su scala atomica e molecolare. L’ordine di grandezza di riferimento per le nanotecnologie è 10-9. In particolare si fa riferimento al nanometro (nm) e quindi si fa riferimento a tutti i materiali e le strutture di dimensioni comprese tra 0,1 e 100 nm (in certi casi ci estenderemo fino a 1000 nm) ottenuti in modo mirato tramite processi tecnici. 1 Moschetta/Cangelosi 01_BIONANO (Ciardelli) 02/03/2022 Scala MACRO→ quello che vediamo ad occhio nudo Scala MICRO→ non riusciamo a vedere la struttura ad occhio nudo, visibile con il microscopio Scala NANO→ abbiamo bisogno di metodi di investigazione ad esempio i microscopi a forza atomica o il tunneling. I normali microscopi riescono a vedere le normali dimensioni nanometriche, questo perché la lunghezza d’onda ha lunghezze d’onda dell’ordine di grandezza dei batteri, quindi non riesce a risolvere dimensioni più piccole. La molecola di DNA è un oggetto nanometrico, mediante le nanotecnologie lo si riesce ad interrogare, in quanto si scende alla sua scala dimensionale. Le proteine sono un po’ più grandi, sono decine di nanometri. Nel mondo di Feynman si scende ancora più in basso, a livello dell’Amstrong (10^-10m -> 0.1 nm) è l’unità di lunghezza per misurare i legami chimici). Tra i due atomi della molecola di idrogeno vi sono 0.75 A (0.075 nm o 75 pm) IL NANOMONDO In natura esistono diversi esempi di “nanotecnologie”: famoso è l’esempio del geco che ha cinque dita come la nostra mano però ogni dito è nanostrutturato cioè ha delle lamelle nanometriche. Ciascuna di queste lamelle ha degli atomi che interagiscono con gli atomi del muro creando le interazioni di Van der Waals; ovvero deboli interazioni elettrostatiche (dal punto di vista energetico valgono pochissime kcalorie per mole) che moltiplicate per un numero molto grande riescono a sviluppare una forza che tiene il geco attaccato al muro e questo è di fatto una nanotecnologia. Dunque, i gechi, grazie a queste particolari zampe possono resistere a una forza di trazione parallela di circa 20 N(~2Kg) che gli consente di aggrapparsi a una foglia dopo una caduta di 10 cm toccandola con una sola zampa. 2 Moschetta/Cangelosi 01_BIONANO (Ciardelli) 02/03/2022 ALCUNE DEFINIZIONI I termini nanoscienze e nanotecnologie indicano la capacità di studiare, assemblare, manipolare e caratterizzare la materia a livello di dimensioni compresi tra 100 e 1 nanometro. Ciò significa operare a livello molecolare dal momento che 1 nanometro(nm) è un milionesimo di millimetro e corrisponde all’incirca a 10 volte la grandezza dell’atomo dell’idrogeno. Le dimensioni di una piccola molecola sono intorno a 1 nm e quelle di una proteina a 10 nm. Nanoscienze: costituiscono il punto di incontro di discipline diverse che vanno dalla fisica quantistica, alla chimica supramolecolare, dalla scienza dei materiali, alla biologia molecolare e rappresentano una realtà ormai affermata nel mondo della ricerca (es: lo studio sulla zampa dei gechi). Nanotecnologie: sono ancora nella fase iniziale del loro sviluppo e puntano a sfruttare e ad applicare I metodi delle nanoscienze per la creazione e utilizzazione di materiali, dispositivi e sistemi con dimensioni a livello molecolare. In questo modo si ottengono prodotti con caratteristiche grandemente migliorate o del tutto nuove in quanto le proprietà e il comportamento non tradizionali della materia a livello nanometrico offrono l’opportunità per strutture e dispositivi che si operano in maniera radicalmente diversa rispetto a quelli con dimensioni macro. Quindi, dove si va a studiare la zampa del Jeco si hanno le nanoscienze, cioè si mettono insieme varie conoscenze che derivano dalla fisica quantistica, dalla scienza dei materiali, dalla chimica, dalla biologia molecolare e le si utilizzano tutte per comprendere i fenomeni alla nanoscala. Poi queste conoscenze vanno applicate alla nanotecnologia; quindi, si applicano i metodi delle nanoscienze per creare dei dispositivi con dimensione con controllo a livello molecolare o supramolecolare, che riescono a fare dei mestieri, quindi risolvere dei problemi. TOP-DOWN e BOTTON-UP Le nanotecnologie le possiamo classificare in due modi: - tecnologie Top-down in cui passo da dimensioni macro e vado a definire il mio oggetto sulla scala nanometrica - tecnologie Top-botton non cui utilizzo delle componenti nanometriche per realizzare di nano oggetti sia di tipo inorganico che organico/biologico. Per spiegare la nanotecnogie Top-down prendiamo come esempio 1) il nanobicchiere: questo bicchiere è fatto di carbonio sospeso in un gas fabbricato utilizzando un raggio ionico di ioni Gallio, raggio molto energetico ed essendo energetico ha anche una risoluzione molto alta, concentrato e controllato da un computer. 2) Il Focus Ion Beam (FIB): -immagine ionica di uno stampino su Si. Il contrasto scuro rappresenta SiO2 isolante, quello chiaro è il Si, conduttore. Le linee interne al campione hanno una larghezza di 250 nm con una periodicità di 1 um. 3 Moschetta/Cangelosi 01_BIONANO (Ciardelli) 02/03/2022 -Codice a barre modellato su un film di oro depositato su vetro: le linee di oro più sottili hanno una larghezza di 70 nm. Mentre per spiegare la nanotecnologia Bottom-up prendiamo come esempio il Focus Io Beam (FIB): Se accoppiamo al raggio ionico una fonte di materiale, cioè se alimentiamo con un gas percussore (molecola metallorganica a base di Pt) la zona dove abbiamo il materiale vicino al fascio, le particelle del fascio urtando la superficie depositano energia sopra le molecole di precursore, le quali di decompongono facendo precipitare il metallo. Dunque, le specie volatili abbandonano la superficie, mentre gli atomi metallici si legano alla superficie stessa. Esempio di oggetti costruiti con la tecnica Bottom-up: -linee di Pt di 60 nm depositate su Si con fascio ionico -deposizione con fascio di elettroni di fili di Pt larghi 50 nm ed alti 1 µm -cella galvanica (cellula micro-elettrochimica) realizzata attraverso la deposizione di Pt con fascio ionico. Da osservare il braccio orizzontale che connette gli elettrodi interno ed esterno. APPLICAZIONI Effetto loto È la capacità osservata nei fiori di loto di mantenersi pulito autonomamente. Sulle foglie di loto l’acqua non viene trattenuta ma scivola via in tante goccioline che si formano per via dell’alta tensione superficiale presente sulla foglia causa della presenza di una cera idrofobica di dimensioni nanometriche. Da questo effetto, si possono creare delle vernici contenente le nanoparticelle che diano quindi una superficie nanostruttrata alla parete e su questa parete l’acqua scorrerà senza bagnarla portandosi via anche lo sporco, quindi, sono superfici anche autopulenti. Questo si può anche applicare nei vestiti antimacchia sia dagli oli e sia da liquidi idrofili. Essi possono avere anche altre proprietà, per esempio esistono nanoparticelle che conferiscono antibattericità (argento nanocristallino) oppure possono rinforzare materiali polimerici, in quanto vi sono materiali che disperdendosi nella matrice polimerica conferiscono maggiori proprietà meccaniche. 4 Moschetta/Cangelosi 01_BIONANO (Ciardelli) 02/03/2022 Bionanotecnologie con le nanoparticelle si possono manipolare nano-oggetti di origine biologica per esempio i virus. Essi hanno un guscio proteico al cui interno c’è il materiale genetico e hanno all’esterno delle codine fatte di poliamminoacidi grazie alle quali aderiscono a specifici nanocristalli inorganici. Con i virus legati ai nanocristalli, si possono creare delle nanostrutture ordinate come ad esempio cristalli liquidi inorganici sfruttando la capacità di assembramento dei virus. In questo caso si utilizzano le capacità della natura di organizzarsi alla nanoscala per creare dei dispositivi elettronici, cioè questa non ha applicazione in biomedicina, però può avere un’applicazione pratica in elettronica. Allora si utilizzano i virus come costruttori di nanostrutture. Con il DNA è possibile fare la stessa cosa : riesce a creare delle strutture ordinate come delle reti quadrate; se al DNA colleghiamo dei cristalli d’oro otteniamo nanoparticelle d’oro. 5 Moschetta/Cangelosi 01_BIONANO (Ciardelli) 02/03/2022 6 Francolini/Galazzo 02 Bionanotecnologie (Mattu) 03/03/2022 NANOMEDICINA La nanomedicina è l'applicazione delle nanotecnologie in campo medico, quindi ogni volta che si applicano le nanotecnologie alla medicina si parla di nanomedicina. È la scienza che si occupa di applicare le nanotecnologie al campo medico. Per nanomedicina si intende anche il prodotto di questa scienza, cioè si può chiamare nanomedicina la scienzache applica le nanotecnologie alla medicina e il prodotto di questa scienza è anch’esso una nanomedicina. Si può usare il termine in due modi: si può usare il nome per indicare la scienza si occupa di applicare le nanotecnologie in medicina e si può usare anche per indicare il prodotto di questa scienza, quindi applicando le nanotecnologie alla medicina si realizzanodelle nanomedicine. Le nanomedicine non sono altro che farmaci nanostrutturati, o meglio nanoformulati. È importante ricordare che si può usare il termine nanomedicina in questi due modi: significato di scienza o il prodotto della scienza. STORIA DELLA NANOMEDICINA Si inizia a parlare di nanomedicina nel 1910 con Paul Ehrlich, che era un medico. Il gruppodi Ehlrich lavorava allo sviluppo di un farmaco contro la sifilide. Ehrlich ipotizzò un concetto che sta alla base della nanomedicina, questo concetto si chiama del proiettile magico (magic bullet). Secondo Ehrlich era possibile identificare, per ogni specifica patologia, un farmaco altamente specifico, cioè altamente selettivo. Quindi con il concetto di proiettile magico Ehrlich introduce il concetto di selettività. Il proiettile magico è un farmaco altamente selettivo per il bersaglio, ovvero per il patogenobersaglio e molto poco selettivo per tutto il resto, cioè per tutto ciò che non è patologico. Questo significa che il proiettile magico ha un effetto terapeutico massimizzato contro la patologia e ha un effetto collaterale, cioè un effetto contro tutto ciò che non è patologico, che è un minimo. In effetti le nanomedicine sono state sviluppate per molto tempo utilizzando il concetto di proiettile magico. Le nanomedicine sono state chiamate ‘i proiettili magici’ nell’idea che potessero essere capaci di colpire in maniera selettiva la patologia e per molto tempo questa patologia è stata la patologia tumorale. Il farmaco era selettivo verso il tumore e molto poco selettivo verso i tessuti sani, effetto terapeutico massimizzato contro il tumoreed effetti collaterali minimizzati. Questo concetto di proiettile magico va col concetto di capacità estrema di agire contro una specifica patologia, risparmiando tutto ciò che non èpatologico. In realtà per quanto riguarda le nanomedicine non sono così selettive, però migliorano la sensibilità dei farmaci. Comunque dal concetto di proiettile magico nasce tutta la storia della nanomedicina chesi interseca con la storia delle nanotecnologie. Per iniziare a parare di nanotecnologie bisogna aspettare il famoso discorso di RichardFeynman nel 1959. Il discorso si intitolava “There is plenty of room at the bottom…” è stato tenuto da Feynman all’università di Caltech nel 1959. Per primo Feynman cercava di incoraggiare gli scienziati dell'epoca ad occuparsi dello studio dei fenomeni fisici che avvengono alla nano scala, cioè aveva capito che alcuni fenomeni completamente diffusi tra macroscala e la nanoscala, cioè quando scendiamo nel piccolo la materia si comporta diversamente. Per molto tempo nessuno lo ascoltò. Oggi la nanotecnologia è uno dei settori della scienza più vivi e più sviluppati, ci sonoapplicazioni delle nanotecnologie più o meno in tutti campi, non solo nella medicina. Quindi grazie a questo 1 Francolini/Galazzo 02 Bionanotecnologie (Mattu) 03/03/2022 discorso, Feynman è considerato il padre delle nanotecnologie. Nel 1984 il termine nanotecnologie è utilizzato con il significato che gli si dà oggi: per nanotecnologia si intende la capacità di manipolare la materia alla nanoscala, cioè di manipolare la materia alla scala degli atomi o delle molecole che la costituiscono. Per la prima volta il termine nanotecnologia venne utilizzato con il significato odierno da professor Tanigichi all’università di Tokyo nel 1974 in un articolo scientifico. Bisogna poi aspettare il 1986 perché il termine nanotecnologie diventi di uso comune. Nel libro di Eric Drexler che si chiama “Engines of creation”, il termine nanotecnologia diventa di uso comune e viene inserito anche in una pubblicazione divulgativa. Per riguarda l’applicazione delle nanotecnologie alla medicina ci vuole un po’ di tempo. In particolare nel 1975 viene pubblicato un primo articolo scientifico in cui si parla di un farmaco che viene all'interno di un sistema microdimensionato (non nanodimensionato).È primo articolo in cui si parla di microparticelle. Il primo proiettile magico, cioè primo anticorpo monoclonale approvato per uso clinico arriva nel 1986, circa ottant’anni dopo Ehrlich. Ci sono quindi voluti ottant’anni perché ilconcetto del proiettile magico elaborato da Ehrlich diventasse una realtà clinica. Nel 1986 viene commercializzato, viene approvato per uso clinico il primo anticorpo monoclonale. Un anticorpo monoclonale è un farmaco molto selettivo per uno specifico bersaglio. Invece, per quanto riguarda l’applicazione clinica della nanomedicina, il primo nanofarmaco nasce nel 1995 (quasi cent’anni dopo Ehrlich). Questo farmaco si chiama Doxil ed è una nanomedicina, cioè una formulazione di farmaco antitumorale che si chiama Doxorubicina. La Doxorubicina è inserita all'interno di nanotrasportatori, ossia di nanoparticelle. In particolare, per quanto riguarda questa formulazione le nanoparticelle sono dei liposomi. Doxil è una formulazione liposomiale, cioè all’interno dei liposomi, del farmaco Doxorubicina, approvato per l’uso clinico dal 1995 e tutt’ora utilizzato. In particolare nel 2004 viene lanciato negli USA dal Nation Institute of Health (NIH) un grosso programma di finanziamenti per la ricerca che ci chiama roadmap on nanomedicine. Questi finanziamenti hanno supportato la ricerca nel campo della nanomedicina finalizzata alle applicazioni in oncologia clinica. La nanomedicina si è sviluppata negli anni passati come un modo per migliorare le terapie oncologiche, quindiper tanto tempo le applicazioni cliniche della nanomedicina sono rimaste collegate al trattamento oncologico. Più di recente le applicazioni si sono estese ad altri campi. Nel 2007 in Europa viene creata una fondazione che si occupa sempre del finanziamentodella ricerca nella medicina clinica. Questa fondazione si chiama CLINAM (Clinica Nanomedicine). Nel 2010 vengono introdotte nelle nuove linee guida che si preoccupano di un problema che molto a lungo è stato trascurato, che si chiama nanotossicologia. I materiali hanno proprietà fisiche diverse quando si passa dalla macro alla nanoscala e in linea generale èun bene, però è anche vero che passando dalla macro alla nanoscala cambia anche la tossicità, cambiano anche 2 Francolini/Galazzo 02 Bionanotecnologie (Mattu) 03/03/2022 gli aspetti di tossicità legati ai materiali. Lo stesso materiale allananoscala può avere un profilo di tossicità peggiore rispetto al profilo che ha alla macroscala. Quindi scendendo con le dimensioni i profili di tossicità possono peggiorare. Questo è abbastanza logico perché più si riducono le dimensioni del materiale, più ci si avvicina alle dimensioni delle cellule oppure degli organelli che compongono le cellule. Quindi si rende il materiale in grado di interagire con gli organismi biologici e di conseguenza i profili di tossicità possono essere esasperati. Un esempio classico è l’amianto. Il problema dell'amianto è la degradazione delle fibre, infatti nella degradazione vengono prodotte delle fibre che possono venire inalate e hannodimensioni nano/micrometriche. Queste fibre sono le responsabili della tossicità dell’amianto, non tanto il materiale in forma massiva. Le cellule fagocitano le fibre, queste ultime rimangono ingolfate all'interno della cellula stessa che, nel tentativo di eliminare queste fibre, creano un ambiente ossidativo, uno stato infiammato, permanente. In questasituazione si può avere l’accumulo di mutazioni, quindi la situazione può degenerare versopatologie più complesse. È l’infiammazione localizzata che è causata dal fatto che le cellule si “mangiano” queste fibre nano dimensionate responsabile dell’elevata tossicità dell’amianto. È un problema di nanotossicità. Nel 2010 vengono prodotte nuove linee guida andare a caratterizzare gli aspetti di nanotossicologia. TRASLAZIONE CLINICA DELLE NANOMEDICINE In figura si può vedere l’applicazione clinica delle nanomedicine. Come si può vedere, ci si trova piuttosto indietro. Per traslazione si intende il passaggio dalla ricerca alla vera applicazione clinica. Pochissimi (circa una decina) farmaci formulati all’interno dei nanotrasportatori sono stati approvati per uso clinico nel corso degli anni. Ci sono tanti motivi per questo scarso successo delle nanomedicine, sicuramente una parte è legata ai metodi di test che sono stati utilizzati negli anni. In particolare le nanomedicine vengono testate a livello di ricerca su piccoli modelli di animali, ma i piccoli animali non rappresentato al 100% l’organismo complessocome quello umano. C’è una carente scelta di modelli pre-clinici, che comporta il fallimento del sistema quandosi passa da un piccolo animale all’uomo. Un altro motivo è il fatto che per anni si sono trascurate diverse condizioni presenti nell’organismo umano. L’organismo umano è un organismo complesso, presenta una serie di barriere per la protezione da organismi esterni, incluse le nanomedicine, la prima barriera fra tutte è il sistema immunitario. Anche i tumori sono strutture complesse che presentano una serie di barriere ai farmaci, ealle nanomedicine. Comprendendo meglio la biologia dietro a questi fenomeni, si è lavorato molto su i parametri di design e progettazione delle nanomedicine per superare determinate barrieree arrivare 3 Francolini/Galazzo 02 Bionanotecnologie (Mattu) 03/03/2022 all'applicazione clinica. Finché queste barriere non sono state capite e queste problematiche non state chiare, la maggior parte dei sistemi sviluppati a livello di laboratorio ha prodotto scarsi risultati nell’applicazione clinica. Ce ne sono solo 10 approvate e una cinquantina attualmente trial clinici. La prima approvata è stata il Doxil, dal Doxil in poi ci è stata tantissima ricerca e pochissime applicazioni. Un’altra nanomedicina famosa approvata nel 2005 si chiama Abraxane ed una formulazione di un farmaco antitumorale che si chiama Paclitaxel, che è un farmaco moltopotente ma altamente tossico. Appartiene ad una classe di farmaci chiamati Taxoli. È particolarmente aggressivo ma altamente tossico, quindi il problema nell’uso clinico di questo farmaco è legato alla sua tossicità. In effetti formulando il Paclitaxel dentro una sorta di nanoparticella (Abraxane) si migliora il profilo di tossicità del farmaco stesso. Questa formulazione del Paclitaxel rispetto al farmaco libero è molto meno tossica. È una nanoparticella in cui il farmaco viene legato ad una proteina che si chiama albumina, quindi è una formulazione del farmaco legata all’albumina con una tecnologia che si chiama NAB (nanoparticle albumine bound) e questa tecnologia può essere utilizzata anche per altri farmaci. Una volta legato il farmaco all’albumina si crea una sortadi nanoparticella che presenta una migliore tossicità e un migliore profilo di distribuzione. Abraxane è ancora in uso clinico. Le ultime particelle sviluppate (Anti-EGFR-Liposomes Phase I e UCNPS PDT) presentano una dicitura che si chiama Targeted, cioè sono in grado di fare un vero e proprio riconoscimento selettivo. Questi ultimi sono più simili ai proiettili magici visti in precedenza. Nel corso degli anni nella nanomedicina sono stati sviluppati tantissimi prodotti differenti,di fatto pochi sono arrivati all’approvazione clinica. La comprensione di alcuni fenomeni biologici sta portando ultimamente allo sviluppo di sistemi migliorati con una maggiore capacita di funzionare in organismi complessi, come quello umano. Domanda: ”Cosa si intende per tossicità?” Risposta: La maggior parte dei farmaci, soprattutto i farmaci antitumorali, sono tossici. Se si compra un qualunque farmaco antitumorale si vede disegnato sopra un teschio, infatti sono tossici per l’uomo ma hanno anche un certo effetto sulle cellule antitumorale. Quindi bisogna fare una scelta tra rischio e beneficio, il farmaco produce un effetto tossico. I classici effetti tossici delle chemioterapie sono dovuti al fatto che il farmaco agisce in maniera non specifica e va a colpire anche quello che non è il suo bersaglio, quindi il farmaco è tossico per l’uomo ma ha anche un effetto benefico, si va a valutare il beneficio contro il rischio. Le nanomedicine servono a ridurre la tossicità perché aumentano la selettività, rendendo il farmaco più selettivo andrà a colpire più la patologia,di meno quello che non è patologia, quindi i suoi effetti tossici saranno ridotti. CHE COS’E’ ESATTAMENTE UNA NANOMEDICINA? Una nanomedicina è un farmaco formulato, cioè preparato, all’interno di un trasportatore (carrier) nanodimensionato, cioè all’interno di una nanoparticella. Quando si parla di nanomedicine si intendono delle nanoparticelle in grado di trasportare farmaci o altri agenti terapeutici. Ogni volta che si inserisce un farmaco all’interno di una nanoparticella si 4 Francolini/Galazzo 02 Bionanotecnologie (Mattu) 03/03/2022 sta creando una nanomedicina, cioè si sta cercando di modificare alcunecaratteristiche del farmaco. Una nanomedicina può non necessariamente contenere solo il farmaco, in una nanomedicina si può combinare infatti la capacità di curare una patologia ma anche la capacitàdi visualizzare la patologia, ovvero si inseriscono le potenzialità di imaging. Una nanomedicina è un farmaco formulato all’interno di un trasportatore nanodimensionato. Si può parlare in maniera uguale di nanomedicine e di nanoparticelle. Esse trasportano farmaci, quindi sono in grado di curare patologie, ma possono essere anche in grado di visualizzare determinate patologie (potenzialità di imaging). Si possono quindi combinare potenzialità di cura e imaging all’interno delle nanomedicine. La prima grossa classificazione è questa: Le nanoparticelle si possono classificare in: - Nanoparticelle massive: si ha una struttura piena, massiva, che contiene il farmaco disperso all’interno della matrice che costituisce la particella. Quindi si ha una particellamassiva (piena), il farmaco di trova disperso in questa matrice in maniera più o meno uniforme, verrà rilasciato lentamente, principalmente secondo fenomeni diffusivi, cioè il farmaco diffonde dalla matrice in cui è disperso verso l’esterno. - Nanocapsule: la differenza in questo caso è che le capsule sono cave. La cavità interna, vuota, può ospitare il farmaco, oppure il farmaco potrà trovarsi all’interno del guscio. Le capsule sono costituite da un guscio di un materiale a nostra scelta e da unacavità interna tipicamente ospitante il farmaco, ma non necessariamente, perché il farmaco può anche trovarsi disperso nel guscio. In questo caso cambia la struttura rispetto alle nanoparticelle massive. - Nanocomplesso: particella che si forma per interazione elettrostatica. Per esempio, sesi utilizza un polimero per andare a costituite la particella, si avranno le catene polimeriche che hanno una certa carica elettrostatica (es. positiva) mentre il farmaco avrà una carica opposta (negativa). Quindi il farmaco di carica negativa andrà ad interagire con le cariche positive presenti nel materiale con il quale si vuole andare a costituire la particella, le craniche si vanno ad annullare, ovvero le cariche si complessano. L’interazione elettrostatica crea un annullamento delle cariche nette per formare delle strutture, cioè dei complessi in cui le cariche positive, ad esempio, sono state complessate dalle cariche opposte presenti nel farmaco. Se si ha il polimero con una certa carica, il farmaco con carica opposta va ad interagire, va ad annullare la carica polimerica. Le catene polimeriche non si respingono più per effetto delle cariche opposte ma tendono a collassare, le catene polimeriche andranno ad 5 Francolini/Galazzo 02 Bionanotecnologie (Mattu) 03/03/2022 avvicinarsi le une alle altre e a formare una struttura simile ad un aggregato nanostrutturato, chiamato complesso. Quindi il complesso non è altro che un aggregato nanostrutturato che si forma dall’interazione tra cariche opposte, che sono le cariche sul materiale con cui viene realizzata la particella e la carica opposta presente sul farmaco che si vuole incapsulare. A seconda del materiale utilizzato per preparare le nanoparticelle si può fare un’ulteriore classificazione delle nanomedicine. - Nanoparticelle lipidiche: ottenute a base di lipidi, materiali che compongono le membrane cellulari. Quindi si decide di utilizzare i lipidi per creare le particelle, si ricade in questa classificazione: nanocarriers a base lipidica. I nanocarriers a base lipidica possono essere sia massivi (nanoparticelle solide lipidiche) che cavi, quindi nanocapsule (es.liposomi). Il Doxil è una formulazione di Doxorubicina in lipomi, quindi il Doxil è una nanocapsula. - Nanoparticelle polimeriche: le particelle polimeriche possono essere massive, capsule o complessi. Si possono selezionare polimeri con proprietà diverse che quindi mi daranno strutture con caratteristiche diverse. Si possono utilizzare polimeri costituitida due componenti, una idrofobica e una idrofilica. Se vengono messi in acqua le porzioni idrofobiche si andranno a distribuire al centro, mentre le porzioni idrofiliche si disporranno verso l’esterno in modo da massimizzare i loro contatti con l’acqua. In questo caso si ottiene una nanoparticelle cava e nella porzione vuota si può inserire il farmaco. Questa struttura è una capsula che viene chiamata micella. Una micella polimerica si forma perché il polimero è costituito da una componente idrofobica e una idrofilica e in acqua si dispone in modo tale da formare una struttura circolare di formasferica, cava al proprio interno, che può ospitare dei farmaci. - Nanoparticelle inorganiche: tipicamente particelle metalliche, nanoparticelle d’oro o nanoparticelle di ossidi di ferro. Sono sfruttate perché permettono di fare imaging. Per esempio le particelle costituite da ossidi di ferro sono degli ottimi agenti di contrasto in risonanza magnetica. Possono anche trasformare farmaci, pero in genere le nanoparticelle inorganiche sono sfruttate principalmente per le loro potenzialità di imaging, ma anche perché se opportunamente stimolate dall’esterno sono anche in grado di scaldarsi e questo può essere utilizzato come terapia (ipertermia). Un altro tipo di nanoparticelle inorganiche molto utilizzato sono i quantum dots, che sono dei fluorofori, ovvero particelle in grado di emettere fluorescenza, sono molto sfruttate per fare imaging, però hanno un’applicazione 6 Francolini/Galazzo 02 Bionanotecnologie (Mattu) 03/03/2022 molto limitata sull’uomo a causa dell’elevata tossicità, mentre sono molto utilizzate su cellule e su piccoli animali. - Coniugati farmaco-polimero: quando il farmaco viene iniettato nell’organismo andrà a distribuirsi in un certo modo all’interno dei vari tessuti e organi che compongono l’organismo (profilo di distribuzione), questo modo di distruzione dipende dalle caratteristiche del farmaco. Un'altra caratteristica del farmaco è quanto in fretta viene eliminato, quanto in fretta viene espulso. In funzione della struttura del farmaco si avrà un certo profilo di distribuzione. Se il profilo di distribuzione non va bene perché si vuoletrattare una patologia specifica che si trova in una determinata zona dell’organismo, percambiare il modo in cui il mi farmaco si distribuisce nell’organismo si può coniugare il farmaco con un polimero o con una proteina, quindi si può dare al farmaco una strutturadifferente. Quando si andrà ad iniettare questo nuovo farmaco magari si è riusciti a cambiare con successo il suo profilo di distribuzione. Formulando diversamente il farmaco, si cambia il modo in cui il farmaco si distribuisce nell’organismo. Un’altra cosa che si può riuscire a fare è andare ad aumentare il tempo di circolazione, ridurre la velocità con cui il farmaco viene inserito. Quando viene inserito il farmaco all’interno delle nanomedicine si sta andando ad alterare il suo profilo di distribuzione sperando di migliorarlo, sperando di renderlo più selettivo per il target, cioè cercando di direzionare il farmaco dove lo si vuole mandare. DIMENSIONI Non esiste una definizione che mi dica qual è la dimensione critica che mi dica qual è la dimensione critica sopra a quale non si hanno più nanoparticelle. Non c’è un range dimensionale definito che mi distingua quali siano nanoparticelle o nanomedicine e qualino. In particolare si troveranno diverse definizioni. La definizione più comune è quella che dice che tra 1 nm e 100 nm si parla di nanoparticelle, ma se ne possono trovare molte altre. In generale sono definite nanoparticelle tutte quelle particelle che hanno una dimensione nella nanoscala, sotto il micron. Questo significa che anche particelle grandi (dell’ordine di qualche micron), se però hanno una caratteristica alla nanoscala, sono ancora nanoparticelle. Una caratteristica alla nanoscala possono essere dei pori, oppure la particella può avere un certo spessore di dimensioni nanometriche (particella discoidale di spessore nanometrico).Una dimensione caratteristica qualunque nella nanoscala rende le particelle nanoparticelleo nanomedicine. Non c’è una definizione precisa in base alle dimensione. Per esempio si possono avere i liposomi fino a qualche centinaio di nm, anche più di 300 nm; nanoparticelle polimeriche fino a 500 nm; particelle molto piccole come le nanoparticelle dicarbonio e d’oro, tipicamente inorganiche a base di metalli, in cui si ha un elevato controllo delle dimensioni. 7 Francolini/Galazzo 02 Bionanotecnologie (Mattu) 03/03/2022 COMPONENTI PRINCIPALI Indipendentemente dalla classificazione, per ogni nanoparticella si possono sempre distinguere due compartimenti principali: la parte centrale, chiamata core, e la superficie, la parte esterna della particella. Il core in genere trasporta il farmaco o i farmaci e può essere costituito da materiali diversi: se la particella è stata costituita da materiali polimerici, allora il core sarà polimerico, se sono stati usati ilipidi, il core sarà lipidico oppure il core sarà inorganico se la particella è inorganica. Si possono usare anche più materiali, per esempio si può usare siaun polimero che un lipide, oppure sia un polimero che un materiale inorganico e in questo caso si hanno delle particelle ibride. Il core quindi può essere costituito da diversi materiali e trasporta i farmaci. Il core può anche trasportare agenti di imaging, per esempio se si usano delle nanoparticelle inorganiche d’oro, il core sarà in grado di fare imaging. Oppure se si usa un composto organico di ossido di ferro, il core potrà essere usato per fare imaging in risonanza magnetica. Il core può trasportare i farmaci, può trasportare gli agenti di imaging, può trasportare molecole di DNA o RNA, cioè può fare terapia genica, in questo caso in genere il core è un nanocomplesso. Gli RNA hanno una carica netta negativa, quindi se si vuole trasportare una molecola di RNA si può usare un polimero di carica opposta, che vada a complessare (neutralizzare) la carica presente nel RNA. Andando a neutralizzare le cariche si crea una struttura di carica quasi neutra, così facendo annullo la carica sul farmaco (RNA) e lo si intrappola in una struttura polimerica sfruttando l’interazione con le cariche opposte presenti nel polimero, si va a creare un complesso da polimero e RNA. Quindi il core sarà un complesso tra un polimero e l’RNA che trasporta un acido nucleico (RNA) per fare terapia genica. Il compartimento superficiale serve perché è la zona della particella in cui si stabilisconole interazioni con l’ambiente biologico. Nella superficie bisogna inserire delle componenti che permettano di modulare l’interazione. La prima cosa da modulare è quanto tempo la particella può circolare nell’organismo e questo appunto lo dice la superficie. In genere quando le particelle vengono iniettate, vengono rapidamente eliminate, perché sono un corpo estraneo e il sistema immunitario cercherà di eliminarle. La superficie va correttamente strutturata in modo da ritardare il più possibile l’eliminazione da parte del sistema immunitario. Per farequesto si inseriscono in superficie dei polimeri idrofilici, il principale è il PEG. La superficiedice come la particella interagirà con l’ambiente biologico e per quanto tempo sarà in grado di circolare. La superficie serve per interagire con il target specifico, infatti si può utilizzare la superficieper ottenere una maggiore specificità. Si possono iniettare sulla superficie delle molecole che permettono di riconoscere in modo più specifico il bersaglio. La superficie può servire per fare imaging. Ci sono alcuni agenti di imaging che funzionanomeglio quando sono esposti all’esterno della particella, per esempio i complessi di gadolinio (agente di contrasto in risonanza magnetica) interagiscono molto bene con i fluidi biologici e generano contrasto interagendo con l’acqua presente nei tessuti, quindi per poter avere contrasto in RM i complessi devono interagire con i fluidi, per cui se si trovano all’esterno è meglio perché sono più liberi di interagire. 8 Francolini/Galazzo 02 Bionanotecnologie (Mattu) 03/03/2022 Un altro esempio sono gli agenti che funzionano in fluorescenza. La fluorescenza è facilmente mascherata, quindi se gli agenti di imaging si trovano all’interno della particella, la sua potenzialità di generare fluorescenza viene in parte mascherata, se invece gli agentisono fuori si vedrebbe tutto il contributo. Quindi in alcuni casi è preferibile che l’agente di imaging si trovi all’esterno per sfruttare apieno le potenzialità che esso ha. Si possono avere particelle ibride utilizzando materiali diversi per prepararle, inoltre si possono anche mettere nella stessa particella farmaci e agenti di imaging, si possono combinare più cose. Quando si combinano potenzialità terapeutiche e diagnostiche nellastessa particella, si parla di particelle multifunzionali, che possono svolgere più di una funzione contemporaneamente. In particolare le particelle che fanno terapia combinata con la diagnostica si chiamano particelle teranostiche. Domanda: “Una nanoparticella teranostica e una nanoparticella multifunzionale sono due cose diverse? ” Risposta: Sì, possono essere chiamate multifunzionali se fanno più terapie insieme cioè se trasportano più di un farmaco con lo stesso carrier. Ci sono farmaci che agiscono in sinergia e quindi vanno trasportati insieme, per esempio, si può fare una terapia che va a curare uno stato infiammatorio localizzato e nello stesso tempo rilascia un RNA per ridurreuna rigenerazione del tessuto, in questo caso è sempre una particella multifunzionale perché svolge in contemporanea due funzioni. Quindi si hanno due farmaci che vanno ad agire sullo stesso sito ma con scopi completamente diversi. Un altro esempio di particella multifunzionale è una particella che combina il targeting conla capacità terapeutica o con la diagnostica. E in questo non diminuisce la selettività perché è il carrier che dà la selettività, se i duefarmaci agiscono nello stesso sito. 9 Pastore/Grillo 03 Bionanotecnologie (Mattu) 03/03/2022 NANOMEDICINA Le nanomedicine sono considerate più selettive nei confronti dei tumori. Ci sono due modi attraverso cui si può migliorare la selettività, quando si inserisce un farmaco all’interno di una nanomedicina: Targeting passivo: una caratteristica delle nanoparticelle di piccole dimensioni, dell’ordine di qualche centinaio di nm, è la capacità di permeare selettivamente all’interno della massa tumorale passando attraverso i buchi che si trovano nei vasi sanguigni che irrorano il tumore. Per passivo si intende che le particelle immerse nel circolo sanguigno, arrivano ai vasi sanguigni tumorali che risultano essere più permeabili (presentano pori), solo perché sono di dimensioni più piccole, confrontabili con le aperture presenti, vi passeranno attraverso riuscendo così a penetrare all’interno della massa tumorale solo per effetto delle dimensioni. Non vi è alcuna azione specifica di riconoscimento, vengono prese in considerazione solo le dimensioni delle particelle. Nei tessuti sani, invece, dove i vasi sanguigni sono meno permeabili, le particelle tenderanno a passare di meno; si avrà un targeting (una selettività) solo alle dimensioni, detto appunto per questo passivo. Il concetto è quindi che particelle di piccole dimensioni, compatibili con le aperture dei vasi sanguigni tumorali, facilitano il passaggio per la permeazione delle particelle verso la massa tumorale facendo quindi targeting solo per effetto passivo. Targeting attivo: le particelle presenti nel circolo sanguigno arrivano in prossimità del tumore, permeano per le dimensioni all’interno della massa (fin qui c’è targeting passivo), ma in aggiunta sono in grado di riconoscere in maniera specifica le cellule che compongono il tumore perché presentano modifiche superficiali grazie alle quali sono in grado di interagire con le cellule tumorali. La differenza sta nella struttura della particella. Nel target passivo si ha una semplice particella sferica di dimensioni compatibili con le aperture, mentre nel caso attivo la stessa particella è modificata in superficie inserendo delle funzionalità utili ad interagire in modo specifico con le cellule che costituiscono la massa. La selettività in questo caso è superiore. TARGETING PASSIVO L’effetto di targeting passivo è stato dimostrato per la prima volta dal gruppo di Maeda, che eseguì un esperimento in cui venne iniettato un farmaco legato all’albumina: al posto di un farmaco vero e proprio è stato utilizzato un colorante chiamato Evans Blue, in modo da poter fare staining e poterne apprezzare la distribuzione. I soggetti impiegati sono topi con un modello tumorale realizzato nel fianco ai quali sono state iniettate le particelle nel circolo venoso attraverso la coda. Osservando il tumore in vari istanti di tempo si può osservare che, con l’avanzare del tempo, il colorante si va ad accumulare all’interno della massa. Questo esperimento ha dimostrato che iniettando le particelle in circolo, si ha una distribuzione di particelle con una maggiore concentrazione nella massa piuttosto che in altre parti del corpo dell’animale. A seguito dell’esperimento, il team dichiarò che il tumore presentava un’aumentata permeazione alle particelle circolanti. 1 Pastore/Grillo 03 Bionanotecnologie (Mattu) 03/03/2022 Dato che rimaneva aperta la questione del perché nel tempo le particelle continuassero ad accumularsi nella massa, il team fece un secondo esperimento in cui furono messe a confronto la somministrazione attraverso un’iniezione intra-tumorale e un’iniezione sottocutanea nel fianco sano del topo. Dopo uno stesso intervallo di tempo si è osservato che nel caso dell’iniezione intra-tumorale il farmaco è rimasto in loco, mentre nell’altro caso il farmaco non era più visibile. Quindi, il primo esperimento dimostra che questo modello tumorale presenta una maggiore permeabilità alle nanoparticelle, mentre il secondo esperimento dimostra che la massa tumorale ha una maggiore ritenzione, ovvero trattiene le nanoparticelle una volta penetrate. Questo effetto della massa tumorale viene chiamato effetto EPR (enhanced permeability and ritention effect), ed è una caratteristica del tumore, e non delle particelle, che viene sfruttata per ottenere il targeting passivo. L’effetto EPR si spiega guardando le caratteristiche dei vasi sanguigni tumorali: rispetto ai tessuti sani, i tumori presentano un’angiogenesi più disorganizzata, come si può apprezzare dalle micrografie che mettono a confronto l’architettura dei vasi di un tessuto sano e quella di un tessuto tumorale. Ci si accorge che i vasi sono aggrovigliati, disorganizzati e disomogenei e in più sono molto più permeabili a causa delle fenestrature, non presenti nei vasi normali. Questo è dovuto alla proliferazione incontrollata dei tumori, che richiede un maggiore apporto di nutrienti, che vengono presi dai vasi sanguigni. I vasi sanguigni, generati in tutta fretta, presentano dunque un’architettura meno curata, in favore però dell’iper-vascolarizzazione, che facilita l’apporto di nutrienti. Per catturare il maggior numero di nutrienti dal circolo sanguigno i vasi hanno pareti più sottili e con più fenestrature, agevolando anche il passaggio delle nanoparticelle. L’angiogenesi disordinata nei tumori spiega l’effetto della permeabilità. La ritenzione invece è dovuta in parte all’architettura dei vasi aggrovigliati, ma soprattutto alla mancanza di un adeguato sistema di drenaggio linfatico nei tumori. Lo sviluppo del sistema linfatico viene infatti trascurato in favore dell’iper-vascolarizzazione. La combinazione di angiogenesi incontrollata e scarso drenaggio linfatico è responsabile dell’effetto EPR dei tumori. Le particelle sfrutteranno l’effetto EPR per penetrare nei tumori in maniera passiva. Purtroppo non tutti i tumori presentano l’effetto EPR, e questo varia col progredire degli stadi tumorali per lo stesso tipo di tumore; quindi il concetto del targeting passivo è valido in teoria, ma non sempre nella pratica e deve dunque essere sfruttato in maniera oculata. Per molto tempo si è creduto il contrario, complice il fatto che negli esperimenti condotti si utilizzano modelli molto approssimati e questo ha portato a sovrastimare le potenzialità delle nanomedicine con la conseguenza di una serie di risultati fallimentari. 2 Pastore/Grillo 03 Bionanotecnologie (Mattu) 03/03/2022 TARGETING ATTIVO Per targeting attivo si intende che le nanoparticelle sono capaci di interagire in modo specifico con le cellule grazie a delle modifiche superficiali. Tali modifiche consistono nell’inserire sulle superfici delle particelle delle macromolecole, chiamate ligandi, specifiche per la cellula target e in particolare per i recettori (proteine) presenti sulla membrana della cellula target. Ogni cellula presenta un preciso set di proteine sulla propria superficie, con un dominio che sporge: l’obiettivo è sfruttare tali proteine per il riconoscimento delle particelle funzionalizzate con il ligando recettorespecifico. Il ligando, interagendo in modo specifico con il recettore, porta in stretto contatto la particella e la membrana cellulare, con il conseguente ingresso della particella nella cellula. Il ligando, legandosi al recettore, lo attiva trasmettendo un segnale alla cellula. Vari segnali vengono trasmessi dai recettori alla cellula: dalla proliferazione, alla migrazione, alla morte. Dato che i tumori tendono a proliferare di più rispetto alle cellule sane, è naturale aspettarsi una maggiore quantità di tali recettori sulla loro superficie. Un esempio è quello del recettore HER2, che risulta sovra-espresso in diversi tipi di tumore, in particolare quello al seno. Il problema diventa di tipo probabilistico perché più recettori ci sono, più è probabile che la nanoparticella funzionalizzata con il ligando HER2-specifico interagisca con la cellula che presenta più recettori di quel tipo sulla sua superficie. Attraverso la modifica superficiale della nanoparticella si ottiene un targeting attivo. Inoltre il targeting attivo si basa sul riconoscimento specifico, ma solo quando le particelle sono arrivate a contatto con le cellule target (possibile sfruttando il targeting passivo). TARGETING STIMOLO-MEDIATO Una volta che le particelle sono arrivate all’interno della cellula target, si può attivare il rilascio del farmaco applicando uno stimolo esterno, ad esempio attraverso ultrasuoni o un campo magnetico esterno. Questo viene fatto perché si vuole attivare il rilascio della terapia solo nel momento in cui è sicuro che le particelle siano entrate nella cellula bersaglio. Oltre agli stimoli esterni si possono sfruttare stimoli locali come una variazione di pH, che si verifica più spesso che nei tessuti sani. È importante ricordare che una strategia non esclude l’altra perché il targeting attivo avviene solo in seguito al targeting passivo che porta le particelle in situ, e lo stesso vale per il targeting stimolo-mediato che dipende strettamente dal fatto che il targeting attivo abbia avuto successo. 3 Pastore/Grillo 03 Bionanotecnologie (Mattu) 03/03/2022 Riassumendo… Le nanomedicine possono targettare i tumori, ovvero riconoscerli selettivamente sfruttando due forme di targeting: quello passivo e quello attivo. Il targeting passivo sfrutta l’effetto EPR, una caratteristica del tumore dovuta all’alta permeabilità dei vasi sanguigni tumorali e all’assenza di un sistema linfatico efficiente. Il targeting attivo richiede una modifica superficiale delle nanoparticelle in modo che possa avvenire il riconoscimento specifico tra ligando e recettore. Bisogna fare attenzione al fatto che la specificità del targeting attivo non tiene conto dell’elevata eterogeneità del microambiente tumorale: una massa tumorale presenta infatti un microambiente molto eterogeneo e quindi è possibile che solo un sotto-tipo venga eliminato, e che invece, altre cellule, magari più aggressive, restino inalterate. Non sempre si può effettuare il targeting passivo. Si possono combinare diverse strategie di targeting. DOMANDA: Cosa si può fare quando non è possibile il targeting passivo (come nel caso di tumore al pancreas o al cervello)? Si può ricorrere ad iniezioni locali, in vicinanza della massa oppure si possono sfruttare strategie meno performanti che prevedono l’utilizzo di particelle contenenti particelle magnetiche come può essere l’ossido di ferro e quindi si applica un magnete esternamente in modo da spingere le particelle ad andare verso la sede del tumore. Un’alternativa può essere affidarsi solo al targeting attivo sperando che prima o poi le particelle raggiungano il sito tumorale. I principali campi di applicazione delle nanomedicine sono: diagnostica, imaging medico, nano-terapia, vaccini e medicina rigenerativa. In generale, per imaging e diagnostica si utilizzano nanoparticelle inorganiche, mentre il trasporto di farmaci è ottenuto sfruttando particelle polimeriche o lipidiche. QUANTUM DOTS I quantum dots sono utilizzati per fare imaging in fluorescenza, si tratta di cristalli di materiali semiconduttori che hanno dimensioni molte piccole, di qualche nm, più o meno le dimensioni di un singolo cristallo semiconduttore. I materiali semiconduttori sono il frutto della combinazione di più metalli di transizione (CdS, PbS e CdSe), quindi il problema in questo caso sta nella biocompatibilità, che li limita ad applicazioni in vitro o su piccoli animali. Sono fatti degli stessi materiali semiconduttori in forma di bulk, l’unica differenza è la dimensione, che porta a proprietà fisiche completamente diverse. Gli elettroni si trovano confinati in vicinanza del nucleo e questo conferisce ai quantum dots la capacità di emettere luce, per esempio, in fluorescenza. Quando un quantum dot viene esposto alla radiazione luminosa alla corretta lunghezza d’onda, è capace di emettere in fluorescenza e quindi si può ottenere un ampio range di emissione in fluorescenza sfruttando i QDs. La fluorescenza emessa può essere modulata scegliendo accuratamente la composizione dei cristalli e, a parità del materiale, il diametro del cristallo. 4 Pastore/Grillo 03 Bionanotecnologie (Mattu) 03/03/2022 Ad esempio, un cristallo di 2 nm di selenurio di cadmio emetterà ad una lunghezza d’onda di 500 nm, mentre un cristallo con la stessa composizione, ma diametro di 8 nm, emetterà a 650 nm. Uno dei vantaggi dei QDs è che i loro spettri di emissione sono molto stretti e si può quindi modulare l’emissione in modo molto fine, permettendo di lavorare con più fluorofori contemporaneamente riuscendo comunque a discriminare più fluorofori l’uno dall’altro. Nei materiali semiconduttori in forma di bulk gli elettroni si dispongono su due livelli energetici: una banda vicina al nucleo, chiamata banda di valenza, ed una più lontano chiamata banda di conduzione, separata dalla banda di valenza da un gap energetico. Per mandare un elettrone dalla banda di valenza a quella di conduzione, l’elettrone deve essere eccitato fornendogli un’energia pari almeno al gap tra le bande in modo che possa saltare alla banda di conduzione. Quando si passa alla nanoscala, gli elettroni nella banda di valenza si ritrovano confinati in una struttura nano-dimensionata e sono quindi più vicini al nucleo perché ne sono maggiormente attratti. La banda di valenza si schiaccia intorno al nucleo, mentre quella di conduzione di allontana, facendo aumentare il gap energetico tra le due bande. Quando l’elettrone salta dalla banda di valenza a quella di conduzione rimane un vuoto nella banda di valenza (vacanza). Dopo un po’ l’elettrone tende a tornare nella sua posizione precedente, ovvero a ricombinarsi con la vacanza: nel fare ciò emette un’energia E=h*ν, dove ν=c/λ e quindi E=h*c/ λ. Dato che c è una costante (velocità della luce) si ha che la lunghezza d’onda è inversamente proporzionale all’energia emessa, cioè maggiore è E, e minore sarà λ. Tanto più piccole sono le dimensioni del QD, tanto più aumenta il gap tra le bande e quindi la lunghezza d’onda emessa quando l’elettrone decade si riduce. Radiazioni ad alta energia hanno λ piccola e viceversa. 5 Pastore/Grillo 03 Bionanotecnologie (Mattu) 03/03/2022 Quindi, QDs piccoli emetteranno verso il blu, QDs più grandi emetteranno verso il rosso o l’infrarosso. I QD presentano una serie di vantaggi rispetto ai fluorofori tradizionali, ovvero quelli organici, che li rendono più performanti: Sono circa 20 volte più luminosi Sono 10-100 volte più stabili rispetto al problema del photobleaching o di degradazione fotochimica: mentre ogni volta che un fluoroforo organico viene eccitato si danneggia, i QD possono sopportare moltissimi cicli di eccitazione ed emissione Ogni fluoroforo ha uno spettro di assorbimento (lunghezze d’onda assorbite dal fluoroforo) ed uno di emissione (lunghezze d’onda emesse dal fluoroforo eccitato) specifico: il vantaggio di un QD è che il range di lunghezze d’onda che può assorbire è molto ampio rispetto ai fluorofori organici. Al contrario, nel caso dell’emissione, un fluoroforo organico emette in un’ampia banda, mentre il QD in un range molto ben definito. Usando i QDs è possibile ottenere dei marcatori in fluorescenza molto più performanti rispetto ai fluorofori organici tradizionali, perciò è possibile mettere più agenti di imaging contemporaneamente (es. imaging delle cellule in vitro). Di contro i QD presentano un’elevata tossicità che li rende poco biocompatibili. 6 Chieffallo/Martinengo 04 Bionanotecnologie (Mattu) 04/03/2022 Nell’ultima lezione si è parlato dei quantum dots, della loro applicazione come fluorofori, in particolare si è detto che hanno il vantaggio di essere estremamente performanti in fluorescenza. Hanno spettri di assorbimento più larghi rispetto ai fluorofori tradizionali, possono essere eccitati in un range ampio di lunghezze d’onda e hanno spettri di emissione stretti e simmetrici, cosa che consente di fare applicazioni di multi-imaging. Si è anche detto che i quantum dots sono molto più performanti, nel senso che resistono ai fenomeni di degradazione fotochimica, anche detta photobleaching: sono 10-100 volte più stabili rispetto ai fluorofori organici tradizionali, e questo permette di fare imaging nel tempo. Cosa significa fare imaging nel tempo? Si vede a tal proposito l’esempio: Nella prima colonna di immagini c’è un fluoroforo organico, nella seconda un quantum dot; quello che si sta facendo è una colorazione, una marcatura, del citoplasma delle cellule; quindi, si sta osservando la stessa cellula in cui è stato colorato il citoplasma. Viene fatto un imaging in continuo, della cellula, per 8 minuti, quindi sono rappresentati i primi 8 minuti, in cui continuamente si sta eccitando il fluoroforo e rilevando la sua emissione. Nel caso dei fluorofori organici, dopo circa 4 minuti il fluoroforo perde le sue prestazioni, non si vede più niente, quindi significa che il fluoroforo organico subisce il fenomeno della degradazione fotochimica: a furia di venire colpito, eccitato, smette di rispondere, si degrada e non è più in grado di emettere fluorescenza. Si vede che l’intensità della fluorescenza che emette si riduce nel tempo fino a scomparire. Per contro, il quantum dot, lo si riesce a usare benissimo per tutti gli 8 minuti: anche se lo si continua a stimolare, il quantum dot continua a rispondere sempre con la stessa efficienza. Nella figura sono rappresentati 8 minuti, però il test è stato condotto per 14 ore senza perdere performance da parte dei quantum dot: questo per far capire che se si vuole monitorare un evento biologico a livello cellulare per tempi lungi, i quantum dots hanno vantaggi enormi cioè possono essere stimolati senza perdere efficienza di risposta. Invece, ciò che si vede nella terza colonna è la sovrapposizione delle prime due, la quale mostra che solo per i primi minuti effettivamente la sovrapposizione è perfetta, rosso e verde danno giallo: la risposta è quindi perfettamente sovrapposta, rispondono uguale. Già dal quarto minuto si vede di più il quantum dot, dal quarto in poi si vede poi esclusivamente il quantum dot. 1 Chieffallo/Martinengo 04 Bionanotecnologie (Mattu) 04/03/2022 Quindi coi fluorofori organici c’è questo grosso limite, che è quante volte di seguito si possono stimolare e rilevare ancora fluorescenza mentre un vantaggio dei quantum dot è sicuramente la stabilità alla degradazione fotochimica. Quando poi si ottengono i quantum dots, dopo la sintesi si è in condizione A: il quantum dot è sintetizzato in solvente organico ed è fondamentale che i cristalli di materiale semiconduttore che si stanno producendo restino stabili (stabili vuol dire che rimangono sospesi nel solvente e che non si aggregano gli uni con gli altri). Nella scorsa lezione si è detto che la dimensione del quantum dot è critica perché da questa dipende la lunghezza d’onda d’emissione, la quale è decisa da chi fa l’esperimento, perciò si fa crescere il quantum dot della dimensione che da quella specifica lunghezza d’onda di emissione; se i quantum dots si aggregano diventano più grandi e cambiano le loro proprietà in fluorescenza, perciò in genere non si vuole che si aggreghino. In sostanza, dopo la sintesi il quantum dot è sospeso nel solvente e stabilizzato dalle molecole del solvente stesso; tali molecole sono idrofobiche, quindi in tale configurazione (A) il quantum dot è stabile in solvente organico, presenta una superficie idrofobica. Se si vuole usare il qd (da ora qd= quantum dot) per trattare le cellule come visto nell’esempio precedente, bisogna passare dal solvente organico all’acqua, o meglio a un solvente acquoso, quindi bisogna fare in modo che il qd sia stabile in acqua: si deve rendere la sua superficie da idrofobica a idrofilica (la superficie è visibile nel disegno), bisogna quindi cambiare il rivestimento superficiale perché sia stabile in soluzione acquosa. Seconda cosa da fare dopo aver sintetizzato i qd è quindi passare alla configurazione B, in cui la superficie diventa idrofilica e acquisisce stabilità in acqua. Poi siccome si deve fare imaging in vitro sulle cellule, così come per qualunque tipo di rilevazione, bisogna rendere il qd specifico per quello che si vuole visualizzare: nell’esempio precedente quello che si vuole visualizzare è il citoplasma della cellula, quindi in questo caso bisogna rendere il quantum dot specifico per tale target, modificando la superficie con specifici ligandi. La configurazione finale C è quella in cui il quantum dot è in grado di interagire con lo specifico target che si vuole identificare a livello cellulare e quindi è stato modificato in superficie con specifici ligandi (anticorpi, proteine, o altre piccole biomolecole come il fattore di crescita). Nella composizione A è idrofobico il rivestimento, quello che c’è in superficie, composto da molecole idrofobiche del solvente, cosa che permette alla particella di rimanere stabile nel solvente: ciò, però, non va bene per l’acqua, bisogna cambiare il rivestimento rendendolo idrofilico, in modo tale che sia stabile in acqua. 2 Chieffallo/Martinengo 04 Bionanotecnologie (Mattu) 04/03/2022 Alla fine, si ottiene il quantum dot con questa struttura, stabilizzato e funzionalizzato; da questa micrografia a trasmissione (TEM) si nota che la sintesi dei quantum dot permette di avere strutture molto ripetibili, infatti i quantum dots sono tutti uguali (si riesce ad essere molto riproducibili) e con una microstruttura molto ordinata. Questo è lo schema generale di sintesi dei quantum dot; dopo la sintesi si ha la configurazione A, quella in cui c’è il rivestimento idrofobico sul quantum dot. Per sintetizzare i quantum dot di solito si lavora in solvente organico caldo, ad alte temperature, e il solvente in genere è il tri-octil-fosfina (TOP) o il trifosfinossido (TOPO): è questo solvente che lascia le molecole sulle superficie dei quantum dot. Quindi si parte inserendo all’interno del solvente caldo i materiali con cui si vuole realizzare il quantum dot, bisogna usare metalli di transizione: la prima cosa da fare è scegliere la composizione del quantum dot; in questo caso si utilizzano il selenio e il cadmio, dunque il quantum dot sarà fatto di selenurio di cadmio. Si iniettano nel solvente caldo i precursori organo metallici che contengono il selenio e il cadmio, e da questi verrà formato il quantum dot. Dopodiché si abbassa la temperatura e questo abbassamento induce la nucleazione dei cristalli: nel disegno si vede che si formano dei piccolissimi cristalli di selenurio di cadmio, poi mantenendo la T costante per un certo tempo, il cristallo cresce fino a raggiungere la dimensione desiderata, la quale determina le proprietà di emissione in fluorescenza. Si sono scelti quindi dimensione e composizione. A questo punto volendo ci si può anche fermare alla fine del terzo step, cioè alla configurazione A del qd. In pratica poi viene fatto un extra passaggio (non è fondamentale ma lo spiega comunque, non ci si deve confondere), che serve per creare una struttura del quantum dot più stabile: viene aggiunto un altro semiconduttore, il solfuro di zinco, che va a crescere e disporsi sulla superficie (rosso più scuro) del quantum dot che ha appena finito di crescere. Si origina cioè un quantum dot con due strati, due layer, di materiali semiconduttori diversi: serve per migliorare ancora di più l’efficienza del quantum dot e ridurre il fenomeno del photobleaching ancora di più. 3 Chieffallo/Martinengo 04 Bionanotecnologie (Mattu) 04/03/2022 Purtroppo tale struttura con doppio strato si chiama core shell, da non confondere col compartimento shell e core visto nella lezione precedente. Core shell significa che il quantum dot ha due strati di due materiali semiconduttori, non ha a che fare con i due compartimenti core e shell visti. Ci si ritrova alla configurazione A. A questo punto bisogna cambiare la superficie, renderla idrofilica, come si fa? Non serve ricordare il disegno, ne le note aggiunte a destra in questa slide (numero 46). Ci sono due grosse strategie: 1) Primo rettangolo: dopo la sintesi si va a sostituire il layer idrofobico con un layer idrofilico, quindi si fa una sostituzione del rivestimento; 2) Secondo rettangolo: si ha sempre il qd con superficie idrofobica ma invece che sostituire il rivestimento, se ne aggiunge un altro sopra idrofilico (si fa una maschera). Si arriva alla configurazione C in cui ci sono i ligandi sulla superficie. Alla fine si ha il quantum dot finale, la slide serve per capire il concetto visto prima: in rosso è evidenziato il compartimento core, quello centrale della particella, che si compone da: Quantum dot (nell’esempio prima era fatto da selenurio di cadmio); Layer che lo riveste (nell’esempio era solfuro di zinco); Eventualmente da altre componenti, non serve sapere quali. Il quantum dot ottenuto dalla sintesi è il core, il quale ha a sua volta una struttura a core shell (non confodersi), con due strati; quello che nella scorsa lezione si era chiamato compartimento superficie è la restante parte non in rosso, quello che c’è fuori e che interagisce con l’ambiente esterno, cioè lo strato idrofilico che stabilizza il qd e tutti i ligandi che stanno sulla superficie per il riconoscimento selettivo. Anche per i quantum dot si distinguono i compartimenti shell e core, il core è il quantum dot finale che da le proprietà di imaging in fluorescenza, lo shell o superficie è formato da tutto ciò che interagisce con l’ambiente esterno. Lo shell (indicato in alto a sx) fa parte del core, il core è costituito da qd a struttura core shell in cui sono presenti due strati diversi di materiali semiconduttori. Siccome entrambi concorrono alla proprietà in fluorescenza del qd, sia il core che lo shell fanno parte di ciò che la lezione scorsa è stato chiamato il compartimento core (in rosso). 4 Chieffallo/Martinengo 04 Bionanotecnologie (Mattu) 04/03/2022 Tutto ciò che è aggiunto in superficie è aggiunto per favorire dei processi, e forma il compartimento superficiale (Shell), incluso il layer idrofilico che stabilizza la particella. Il ligando permette di fare un riconoscimento selettivo ma non detta l’intera interazione con l’ambiente esterno. Shell e core insieme formano il quantum dot. Lo shell interagisce con l’ambiente esterno, i ligandi con il target. Questa slide fa un riassunto. Ci sono 3 grossi modi in cui si può modificare la superficie attaccando i ligandi: si possono stabilire legami covalenti stabili, legami non covalenti (streptavidina-biotina , legame molto specifico) o interazioni elettrostatiche meno stabili tra ligando (che ha una sua carica netta) e la superficie della particella, meno precisi rispetto ai primi due. Si vedono due esempi di utilizzo dei quantum dots. C’è un quantum dot che ha una struttura core shell, ha due strati (layer), il primo è fatto di tellurio di cadmio e lo shell è solfuro di zinco. La superficie del quantum dot è già resa idrofilica, già pronta per l’interazione con l’acqua, modificata con uno strato di un polimero idrofilico in superficie, il PEG. Il PEG ha un gruppo funzionale terminale che è un gruppo amminico NH2 , a questo gruppo amminico si va ad attaccare una molecola formando un legame covalente. Poi a tale molecola gialla viene attaccato un ligando, che è una sequenza peptidica e si chiama RGD (sequenza di arginina, glicina, acido aspartico) (in basso a dx); anche il ligando viene legato covalentemente 5 Chieffallo/Martinengo 04 Bionanotecnologie (Mattu) 04/03/2022 NON VA RICORDATA QUESTA CHIMICA, basta sapere che alla fine viene creato un qd con la struttura vista in basso a sinistra verde. Sulla superficie del qd si ha il PEG (strato idrofilico) più il ligando, che è RGD; cosa fa tale ligando? Riconosce e si lega selettivamente ad alcuni recettori presenti, ad esempio, su alcune cellule tumorali, può quindi essere utilizzato per fare imaging sia in vitro che in vivo (imaging di tessuti tumorali). Applicazione: Qui si vede il modellino del topo che ha un tumore sul fianco destro; in questo caso ci sono due utilizzi del qd. Il primo sono le foto in alto a sx, nelle quali i qd sono utilizzati per vedere se si riesce a riconoscere il tessuto tumorale: si impianta il tumore nel topo, per poi espiantarlo dopo un certo tempo; a questo punto si taglia il tessuto e questo, che contiene in parte tessuto sano e in parte tumorale, viene esposto ai qd. Delle 4 foto, quelle a destra sono ottenute con i qd senza il ligando RGD e quelle a sinistra con il ligando in superficie. Quando c’è il ligando si riconoscono le cellule tumorali, i qd si attaccano alle cellule tumorali ed è possibile fare un riconoscimento in vitro sul tessuto: i qd si possono dunque usare come rilevatori della presenza di cellule tumorali in un certo tessuto, ma senza il ligando non sono in grado di fare questo tipo di riconoscimento. Funzionano perciò sull’espianto. Nel secondo esperimento prima di togliere il tumore vengono iniettati i qd in circolo, essi si accumulano sul tumore (si ricorda che essendo anche molto piccoli vengono facilmente smaltiti); dopo un certo tempo il tumore viene estratto e analizzato in fluorescenza. La foto a sinistra è ottenuta con i qd con il ligando RDG, quella a destra con i qd senza ligando RGD. Si vede che se c’è il ligando, i qd entrano nel tumore e ci rimangono di più, se non c’è invece penetrano ma poi vengono eliminati, quindi se ne trovano pochi. Tale esempio serve per far capire che i qd possono essere funzionalizzati con ligandi che permettono di fare riconoscimento selettivo, si possono usare in vitro sulle sezioni di tessuto, ma anche in vivo sui piccoli animali. 6 Chieffallo/Martinengo 04 Bionanotecnologie (Mattu) 04/03/2022 Qui si discute un‘applicazione per vedere come un certo ligando interagisce col proprio recettore. Si vuole capire quanto tempo impiega il ligando a interagire col recettore e cosa succede in seguito a questa interazione. Le cellule sono marcate in verde, il ligando è in giallo. Quello che si vede è quanto velocemente il ligando si lega al recettore sulle cellule, e a seguito di tale legame si capisce che esso viene portato all’interno della cellula. Il qd consente, facendo imaging in tempo reale, di fare studi cinetici, cose che a volte non si può fare con i fluorofori tradizionali: per esempio si può studiare nel tempo come un ligando interagisce con il proprio recettore. È un esempio per far capire che nonostante la tossicità sono molto usati, dato che permettono di fare cose che gli altri fluorofori non permettono di fare. Effetto FRET È il trasferimento di energia da un fluoroforo ad un altro fluoroforo per effetto di risonanza. È un fenomeno che non è esclusivo dei qd, è caratteristico di diversi fluorofori. Questo effetto richiede due fluorofori (giallo e azzurro) non presi a caso, sono due fluorofori che formano una coppia FRET, cioè devono essere compatibili, inoltre affinché si verifichi tale effetto i due fluorofori devono trovarsi vicini. Dunque: effetto FRET= trasferimento di energia da un fluoroforo a un altro, non presi a caso, devono essere compatibili, devono formare la coppia FRET e devono essere vicini, in particolare devono trovarsi a una distanza inferiore a quella di un certo valore critico detto RAGGIO DI FORSTER. Il primo fluoroforo, quello azzurro, si chiama donatore, mentre quello giallo si chiama fluoroforo accettore. Quando i due fluorofori si avvicinano, il fluoroforo donatore viene eccitato secondo il suo spettro di assorbimento, per esempio questo viene eccitato a 436 nm (lunghezza d’onda di eccitazione) ed emette fluorescenza a 480 nm secondo il suo spettro di emissione: viene eccitato secondo il suo spettro di assorbimento ed emette secondo il suo spettro di emissione. 480 nm cade nello spettro di eccitazione del secondo fluoroforo, quindi a 480 nm il secondo fluoroforo viene eccitato ed emette a 535 nm. I numeri non vanno ricordati. Quando i fluorofori sono vicini succede quindi che si eccita il donatore che emette a 480 nm, soltanto che tutta l’energia emessa o quasi, invece che diventare fluorescenza, viene trasferita per effetto FRET all’altro fluoroforo. Lui viene eccitato e risponde. Si eccita il donatore a 436 nm, e invece di rilevare l’emissione del donatore si rileva l’emissione dell’accettore, perché l’energia emessa del donatore è trasferita all’accettore, quindi si vede la sua emissione. 7 Chieffallo/Martinengo 04 Bionanotecnologie (Mattu) 04/03/2022 Il trasferimento di energia per effetto FRET, quindi, richiede che lo spettro di emissione del fluoroforo donatore sia almeno parzialmente sovrapposto con lo spettro di eccitazione del fluoroforo accettore, affinchè succeda che quando uno emette l’altro viene eccitato. Lo spettro di eccitazione del fluoroforo giallo deve essere almeno parzialmente sovrapposto allo spettro di emissione del fluoroforo blu cosicchè quando uno emette, l’altro viene eccitato, se sono vicini. Questa è la teoria dell’effetto FRET. Esempio di applicazione dell’effetto FRET Si stanno studiando modifiche di conformazione delle proteine, che hanno una struttura 3D complicata, la quale può cambiare in funzione delle condizioni esterne, ad esempio il pH può variare la conformazione della proteina; si può essere interessati a studiare come la proteina cambia la propria conformazione in funzione di specifiche condizioni esterne. Ad esempio, si può decidere di attaccare i due fluorofori (donatore e accettore) in due porzioni lontane della proteina. Quindi, quando la proteina ha questa configurazione iniziale, i due fluorofori sono distanti, non c’è effetto FRET. Si testano varie condizioni di pH, finché non se ne trova una per cui la proteina cambia conformazione, e magari prende una conformazione arrotolata stretta: in questo caso donatore e accettore vengono portati uno vicino all’altro, quindi i due fluorofori sono vicini e si verifica l’effetto FRET. Quindi quando si sta monitorando la fluorescenza, dunque quando si eccita, se la proteina ha conformazione stesa si rileva l’emissione del donatore, mentre quando la conformazione cambia invece di rilevate l’emissione del donatore, si rileva quella dell’accettore. Si può concludere che la proteina ha cambiato conformazione in un modo tale che donatore e accettore sono stati portati vicini. Seguendo l’andamento della fluorescenza e sfruttando l’effetto FRET si può quindi trarre un’informazione sul tipo cambiamento della conformazione della proteina ottenuto in seguito alla variazione del pH. Quindi sfruttando l’effetto FRET si possono usare delle modalità di rilevazioni importanti che possono dare informazioni morfologiche ma anche servono per creare sonde di rilevazione basate sulla fluoroscenza, molto precise. I qd che hanno questi spettri di emissione così stretti sono degli ottimi fluorofori da sfruttare per l’effetto FRET, posso anche essere messi in serie, cosa che con i fluorofori organici non si può fare. In questo esempio il qd viene utilizzato per creare una sonda, un sensore, che rileva la presenza di uno specifico gene all’interno del DNA. La domanda che ci si pone è: dato un certo filamento di DNA, in esso è presente o no un certo gene G di interesse? 8 Chieffallo/Martinengo 04 Bionanotecnologie (Mattu) 04/03/2022 Un gene è una sequenza di basi nel DNA, quindi il gene G sarà una sequenza all’interno del DNA target che si sta analizzando. La sequenza del gene è nota, si sa quali basi contiene. Per prima cosa si deve denaturare il DNA, quindi si ottiene un singolo filamento invece che la doppia elica. Si usa un sensore a base di qd che sfrutta l’effetto FRET; il sensore è un qd modificato in superficie con la streptavidina, che serve per attaccare sulla superficie del qd una sonda di cattura (capture probe). La sonda di cattura è un filamento di DNA modificato con la biotina. La sonda di cattura e il qd, grazie alla biotina, formano un legame molto forte e molto specifico; la sonda si lega in questo modo. Si ha quindi il qd al quale è stato attaccato un filamento a singola elica di DNA sfruttando il legame streptavidina-biotina; la sonda è detta “di cattura”, perché cattura il DNA target. La capture probe è complementare al DNA target con una sequenza diversa da quella del gene di interesse; essendo i due complementari, quando vengono messi insieme hanno una parte compatibile in cui formano una doppia elica, mentre il resto rimane libero. Quindi, la capture probe cattura il DNA target e lo porta vicino al qd, cioè al sensore. C’è o no il gene nella sequenza del DNA target? Si c’è, ma come lo si capisce? Per dire che G è presente nella sequenza, si usa una seconda sonda, la reporter probe (reporter perché è quella che porta l’informazione, serve per rispondere alla domanda posta all’inizio). Questa sonda è complementare con la sequenza del gene G, quindi la sonda deve essere in grado di formare la doppia elica con il DNA target in corrispondenza della sequenza del gene G, è complementare a quella sequenza, ed è legata ad un fluoroforo CY5 che forma una coppia FRET con il qd. Quando si aggiunge la reporter probe, se c’è il gene G, essa farà la doppia elica in corrispondenza di G, portandosi dietro anche il fluoroforo che le è legato. A questo punto il fluoroforo e il qd si trovano vicini, quindi avviene il trasferimento di energia per effetto FRET, perciò se si monitora la fluorescenza, si eccita il qd alla sua lunghezza d’onda di eccitazione e si va a vedere se si rileva l’emissione del qd o quella del fluoroforo F dell’accettore. Quando si rileva l’emissione di F, vuol dire che c’è stato trasferimento di energia dal qd al fluoroforo per effetto FRET; quindi, il fluoroforo si trova vicino al qd e ha perciò riconosciuto il gene: la risposta è SI, c’è il gene che si stava cercando. Se invece monitorando si rileva soltanto l’emissione del qd, allora la risposta è NO, non c’è trasferimento di energia per effetto FRET, il fluoroforo accettore non si trova vicino al qd, quindi non ha riconosciuto il gene. Chiarimento sulla reporter probe: essa si lega alla sequenza del gene, essendo complementare a quella sequenza. Al reporter è legato un fluoroforo che forma una FRET col qd. Quando sul qd si attacca il DNA (tutto), rimane poi la sequenza del gene G, che rimane libera, qui si lega il reporter probe portandosi dietro il suo fluoroforo F, che a questo punto si troverà vicino al qd: avviene quindi il trasferimento di energia per effetto FRET dal qd al fluoroforo attaccato al reporter probe. Se questo succede significa che il reporter 9 Chieffallo/Martinengo 04 Bionanotecnologie (Mattu) 04/03/2022 probe si è legato, ha riconosciuto la sequenza presente nel DNA target, così facendo si è avvicinato al qd ed è avvenuto un trasferimento di energia per effetto FRET. A questo punto si rileva la sua emissione e quindi c’è il gene G nella sequenza del DNA target. Se non avviene trasferimento di energia per effetto FRET vuol dire che il fluoroforo F non ha trovato la sequenza complementare e quindi non è arrivato vicino al qd: non c’è il gene. Quindi il reporter probe è composto da due part:, dalla sequenza complementare al gene e dal fluoroforo; se c’è il gene G la sequenza complementare formerà la doppia elica con la sequenza di G, il fluoroforo sarà vicino al qd, avverrà effetto FRET; se G non c’è la sequenza non legherà e il fluoroforo non viene avvicinato al qd, non ci sarà trasferimento per effetto FRET. Tutto ciò si ricava monitorando il sistema in fluorescenza, eccitando spesso il qd alla sua lunghezza d’onda e aspettando la fluorescenza. DOMANDA: Qual è la probabilità che il qd e il fluoroforo si trovino vicini casualmente? Bisogna dare il tempo affinché avvengano le reazioni e poi bisogna ripulire in modo che tutti i frammenti di DNA e i probe che non hanno reagito vengano tolti: in questo modo, quando avviene la rilevazione si ha solo quello che ha avuto il tempo di reagire, di formare le doppie eliche ecc e tutto il resto viene eliminato, non ci sono reporter circolanti che possono falsare la misura. 10 Cucco/Margaria 05 Bionanotecnologie (Mattu) 09/03/2022 Si stava parlando di Quantum Dot con struttura core-shell che costituisce il compartimento centrale, il compartimento core della particella e la superficie che, invece, è resa idrofilica attraverso l'aggiunta del PEG. Dunque, per rendere la superficie idrofilica, si ha il PEG che è stato legato direttamente sulla parte superficiale del quantum dot scambiando il polimero idrofobico che rimane dopo la sintesi con una componente idrofilica, appunto, in questo caso, il PEG. Questo PEG presenta un gruppo funzionale terminale ed è questo gruppo amminico NH2 a cui si possono legare diverse molecole; in questo caso si vuole mettere sulla superficie del QD una sequenza peptidica ed è una sequenza RGD ciclica, dove la sequenza RGD è costituita da argininaglicina-acido aspartico. La sequenza RGD vuole essere messa sulla superficie del QD in modo da poter fare targeting; il problema è che queste sequenze, in generale le biomolecole, attaccate direttamente alla superficie risultano poco mobili e, quindi, quando sono poco mobili sono anche poco favorite nella interazione con il proprio recettore. Per migliorare l'interazione tra il ligando che si mette in superficie e il suo recettore si può scegliere di aggiungere una piccola molecola interposta tra la superficie e il ligando. L'aggiunta di questa piccola molecola, che si chiama spaziatore, permette di creare una distanza maggiore tra il ligando e la superficie della particella e quindi di consentire al ligando una maggiore libertà di movimento che poi si traduce in una maggiore interazione con il proprio recettore. In questo caso si opta proprio per inserire una molecola spaziatore che è un linker (tra i due CdTe nell’immagine) che termina con due funzionalità differenti: la prima è stata scelta perché è in grado di reagire in modo selettivo con il gruppo amminico presente sul PEG formando un legame covalente, ovvero un legame di tipo amminico; quindi questo link si lega al gruppo amminico sul PEG e quindi alla fine si avrà la particella con questa configurazione, dove il pallino rosa corrisponde al PEG a cui ora è legato il linker da una parte; quindi, questa porzione ha reagito col PEG e ora si ha la particella con il PEG e il linker in superficie. 1 Il linker serve per separare la bio-molecola, quindi il ligando, dalla superficie, creare più spazio in modo che il ligando abbia più libertà di movimento e più libertà di movimento si traduce in una maggiore interazione con il recettore. Si lega la molecola spaziatore al PEG attraverso questa funzionalità. L’altra funzionalità presente sullo spaziatore riguarda il fatto che si tratta di un gruppo malammide, altro gruppo reattivo, che è stata selezionata perché è in grado di reagire con il gruppo tiolo, SH, presente sulla sequenza RGD, quindi in modo da attaccare la sequenza RGD alla superficie; si fa perciò reagire il gruppo tiolo col gruppo malammide e, a questo punto, si ha la particella nella configurazione (si vede in basso) in cui si vede il PEG con un pezzettino dello spaziatore e il gruppo RGD attaccato sulla superfici. Quindi questi QD sono stati bio-funzionalizzati con la sequenza RGD. Quantum dot in vivo: applicazioni principali Si vede ora cosa succede nell'applicazione in vivo: i QD vengono sia iniettati sull'animale che messi a contatto con delle sezioni di tessuto. La prima funzionalità di cui si è parlato, è un gruppo succinimidile, è un estere che serve per reagire con il gruppo amminico. I QD funzionalizzati con le RGD vengono confrontati con gli analoghi QD non funzionalizzati. Alcuni tumori sovra esprimono il recettore per l’RGD, in questo caso viene utilizzato come modello tumorale un modello di glioblastoma, un tumore primario al cervello, le cellule sono U87 che vengono sempre iniettate in modo sottocutaneo, il tumore viene estratto e viene sezionato, quindi si hanno diverse piccole e sottili sezioni della massa tumorale (immagine). Sopra queste sezioni vengono esposti i QD, quindi la sezione di tessuto viene coperta con una soluzione di QD e nel caso dei QD con RGD, è in grado di interagire con le cellule tumorali, le riconosce, penetra all'interno e le marca in fluorescenza, quindi si riesce a rilevare la fluorescenza dei quantum dot e nella sezione di tessuto si evidenzia la presenza del tumore; questo fa vedere che si possono applicare i quantum dot per fare analisi, cioè per fare staining, colorazione, delle sezioni di tessuto in vitro. La stessa cosa non si ottiene utilizzando il quantum dot non funzionalizzato. In vitro c'è selettività ovvero capacità di riconoscere la massa tumorale (primo modo). In vivo, sempre con il modello animale e tumore (nel fianco destro) sottocutaneo, i QD vengono iniettati per via endovenosa, quindi si ha sempre l'animale trattato con i QD funzionalizzati e non e nel tempo viene eseguita la fluorescenza dentro l'animale vivo. A sei ore c'è un maggiore accumulo nella massa tumorale in fluorescenza dei QD funzionalizzati con la RGD rispetto ai QD non funzionalizzati. Estraendo la massa, analizzandola sempre in fluorescenza, si vede che con 2 l’RGD, rispetto al caso no, si ha una maggiore intensità di fluorescenza nella massa tumorale, (l'intensità si legge sulla scala in basso). Per concludere, bio-funzionalizzando, cioè modificando la superficie del quantum dot con specifici ligandi, si ottiene specificità nel riconoscimento della massa tumorale che esprime il recettore specifico, sia in vitro, come sistema di analisi sulle sezioni di tessuto, che in vivo. Le parti colorate indicano la distribuzione non specifica delle particelle, vanno un po' dovunque, si ha forte accumulo a livello del fegato, degli organi intestinali, e anche una rapida eliminazione. L’iniezione è fatta nella coda, quindi quando si vedono queste fluorescenze a livello del punto di iniezione vuol dire che una buona parte di quello che è stato iniettato è rimasto sotto cute nella coda invece che andare in circolo (iniezione sbagliata). Il fegato, i reni e la milza sono i principali organi di accumulo delle particelle una volta iniettate, soltanto una piccolissima percentuale della dose iniettata effettivamente raggiunge il tumore, il resto viene eliminato attraverso il fegato e i reni a seconda delle dimensioni delle particelle (si vedrà). Ci possono essere altri effetti che sono legati alla fluorescenza di background dell'animale perché i tessuti, anche per esempio nel caso dei topi il pelo, che possono generare auto fluorescenza, quindi a seconda delle lunghezze d'onda di analisi si può rilevare una fluorescenza che non è delle particelle ma è dell'animale. Quantum dot in vitro: applicazioni principali Possono essere utilizzati per marcare la superficie della cellula oppure per marcare il nucleo e il citoplasma della cellula; utilizzando quantum dot opportunamente modificati in superficie si può ottenere selettività per compartimenti diversi della cellula, sia per il nucleo che per il citoplasma, quindi possono essere ampiamente modificati per ottenere la selettività desiderata. Il QD può essere usato anche come marcatore secondario. Più importante invece è l’utilizzo del quantum dot per lo studio di processi cellulari in tempo reale, in questo caso si sta studiando l'interazione tra un recettore, EGF receptor, e il suo ligando, quindi il recettore si chiama EGFR detto anche erbB1, dove ‘r’ sta per receptor, quindi il ligando è EGF. Il recettore si trova sulla superficie delle cellule, in verde, e le cellule sono state modificate per emettere sempre questa fluorescenza verde, quindi il verde si vede sempre perché lo emette la cellula. Si vuole vedere quanto tempo impiega il ligando a interagire con il suo recettore, quindi si lega sul quantum dot il ligando e lo si mette a contatto con 3 le cellule. La stessa cellula viene seguita nel tempo e la fluorescenza gialla corrisponde al QD; nel tempo il quantum dot interagisce con la membrana cellulare e piano piano si possono apprezzare le dinamiche con le quali questo recettore viene trasportato all'interno della cellula. Quindi si vedono comparire questi puntini rossi all'interno della cellula, quindi vuol dire che il ligando ha interagito con la membrana cellulare in circa 500-700 secondi e poi, nel restante tempo, sono altri circa 300-400 secondi, viene internalizzato. Usando i QD si possono studiare le dinamiche di interazione tra, per esempio, ligando e recettore, quindi dinamiche che avvengono a livello cellulare. DOMANDE SU EFFETTO FRET (argomento già affrontato a lezione) Lo stesso processo non si poteva fare semplicemente inserendo il reporter ed eccitando lo spettro di emissione della cianina? Ovviamente si può fare di eccitare solamente la cianina ma in questo modo si può verificare che il riconoscimento del gene è avvenuto. Mettendo solo il reporter probe con cianina attaccata e facendolo reagire con il DNA poi come si separano? Come si capisce che se si sta rilevando fluorescenza effettivamente dalla cianina legata al DNA target oppure proveniente dalla cianina che presente nella soluzione di reazione? In questo modo è più semplice perché si fa reagire il DNA con il reporter probe, che a questo punto reagisce vicino al vostro QD, solo se la reazione avviene rilevando lo shift in fluorescenza si può dire che è presente il gene di interesse altrimenti non c'è. Due fluorofori possono sempre essere eccitati, anche separatamente, ma sfruttando questo effetto si può capire che è avvenuta una reazione in vicinanza del fluoroforo di rilevazione, questo ha cambiato la situazione nella soluzione di analisi. È possibile che il gene ci sia ma non si raggiunga la distanza soglia? No, in genere si scelgono porzioni di DNA abbastanza piccole, non tutto il DNA, in cui si sa che probabilmente si trova il gene di interesse, perché si va a vedere se c'è o non c'è. 4 Domanda che la prof non legge ad alta voce Il capture probe si lega sempre al DNA, si chiama probe di cattura proprio perché cattura il DNA, si lega ad una sequenza che è sicuramente presente nel DNA target, quindi il DNA di sicuro si avvicinerà al quantum dot. Se c'è il gene di interesse nel DNA anche il reporter probe si legherà, cioè formerà la doppia elica con il gene con la sequenza complementare al gene di interesse che è presente sul DNA target. Il reporter, a questo punto, con la cianina 5 attaccata si trova vicino al quantum dot e così, sfruttando l'effetto FRE, si vede un cambio di rilevazione in fluorescenza e si può dedurre che è presente il gene di interesse nel DNA. La cianina 5 è legata alla sequenza di DNA complementare alla sequenza che caratterizza il gene che interessa. A questo punto, la cianina 5 viene portata vicino al quantum dot e la FRET si genera tra il quantum dot e la cianina 5 (pallino rosso sul reporter probe). La streptavidina (triangolino nero) sta sul QD e la biotina (pallino nero) sul capture probe, è la reazione streptavidina-biotina che fa sì che il capture probe si leghi al QD. C'è probabilità che anche se il reporter non si lega al gene venga comunque rilevata la sua emissione in uscita? È possibile se si fa la reazione tutta nello stesso contenitore di reazione ma si può anche fare separatamente: prima si fa reagire il DNA target con il reporter probe, poi si fa attaccare al QD; però, per come descritto prima nel disegno, se la reazione avviene sul DNA già attaccato al QD è possibile che, anche se è difficile che succeda, il reporter probe si avvicini in soluzione al QD quindi si genera effetto FRET, pur rimanendo in sospensione; per evitare questo, si fa avvenire la reazione, si dà il tempo, prima di rilevare, perché avvenga l'ibridazione del DNA, poi si lava via, quindi si cercano di eliminare tutti i reporter probe che non si sono legati, e, infine, si fa la rilevazione, minimizzando la possibilità di vedere effetto FRET tra il fluoroforo libero e il QD. Altro possibile esempio di applicazione dell'effetto FRET in rivelazione utilizza delle strutture che si chiamano molecular beacons o forcine molecolari (spiegherà dopo). Per concludere i QD, si ripetono i concetti principali che si trovano nello schema a destra. Dimensioni nanometriche: ciò modifica le loro proprietà ottiche rispetto al materiale tradizionale in forma di bulk. 5 MOLECULAR BEACONS Sonde molecolari a forma di forcina, utilizzati per riconoscere specifiche sequenze di DNA, sfruttano il trasferimento di energia per effetto FRET tra un fluoroforo, che può essere un QD, e un’altra molecola, chiamata quencher. È costituito da due porzioni principali, una superiore chiamata loop e una inferiore chiamata stem o gambo. Il gambo è una doppia elica di DNA, mentre il loop è una singola elica di DNA; inoltre, il gambo è più corto rispetto la sequenza di loop, quindi la sequenza di basi è più piccola. Il loop presenta la sequenza di nucleotidi, di basi complementare ad una certa sequenza che si sta cercando nel DNA target, la sequenza è la sonda e si vuole sapere se nel DNA in analisi è presente la sequenza evidenziata in giallo nella slide. Per capire se è presente si deve sfruttare l’effetto FRET: al gambo sono attaccati fluoroforo e quencher; quando sono vicini (struttura a forcina chiusa come nel diesgno) risentono dell’effetto FRET perché le due molecole sono vicine. Essere vicini cosa significa? Il quencher è fatto in modo che il suo spettro di assorbimento sia quasi completamente sovrapposto a quello di emissione del fluoroforo (grafico in basso a destra nella slide), dunque, il fluoroforo eccitato vorrebbe emettere la sua fluorescenza caratteristica ma non può farlo perché tutta l’energia che emette viene assorbita dal quencher (quest’ultimo non emette niente). Non si vede niente, nessuna risposta, nessuna emissione in fluorescenza dal fluoroforo, perché tutta viene assorbita dal quencher; quindi, nella configurazione chiusa non c’è fluorescenza, per effetto FRET. Se si riconosce la sequenza di interesse, il molecular beacon si apre. La sequenza complementare va a ibridare, cioè va a formare la doppia elica con il suo complementare presente sul DNA target, il gambo si rompe e il fluoroforo e il quencher vengono portati a distanza. La fluorescenza del fluoroforo non 6 è più mascherata dal quencher quindi può essere rilevata; dunque, dopo averlo eccitato si rileva la fluorescenz, altrimenti l’energia viene interamente trasferita al quencher e non si rileva nulla. Perché si rompe la doppia elica? Il gambo è più corto del loop, il gambo è costituito da 5-8 bp mentre il loop 25-30 bp (base pare, paia di basi). Se si forma la doppia elica l’energia libera della molecola di DNA si minimizza, quindi si ha una struttura più stabile e dunque con minore energia libera associata. Qua si ha una singola elica e dunque una maggiore energia libera rispetto al gambo; dal punto di vista termodinamico si preferiscono le reazioni che vanno a minimizzare l’energia libera, quindi la reazione, ibridazione, tra la singola elica più lunga e il suo complementare presente nel DNA target è favorita, dal punto di vista energetico, e avviene, si sacrifica invece la porzione stabile perché, anche se fosse instabile, contiene minore energia libera: si favorisce la reazione che minimizza l’energia libera del sistema, ovvero tra la singola elica nel loop e il suo complementare sul DNA target. Il molecular beacon per minimizzare la propria energia libera tende a reagire con la sequenza target, a formare la doppia elica nella zona più instabile del loop e quindi a stabilizzarla. Tornando all’esempio del molecular beacons formato da un QD e un quencher, che è una nanoparticella d’oro. Quando la struttura è ripiegata il QD trasferisce la sua energia al quencher, particella d’oro, e non si vede fluorescenza; se invece si ha la reazione tra beacon e target DNA la forcina si apre, si ha la reazione, l’ibridazione, e il QD viene portato lontano dal quencher, quindi si rileva la fluorescenza. 7 MOLECULAR BEACONS IN REAL-TIME PCR Ultima possibile applicazione dei molecular beacons si ritrova nella PCR in tempo reale, tecnica di amplificazione del DNA; durante la PCR il DNA viene continuamente copiato per ottenere un numero molto più alto di molecole di DNA tutte uguali. Per poter copiare il DNA bisogna prima di tutto denaturarlo, cioè bisogna passare dalla doppia elica alle due singole eliche e, a quel punto, copiare. Si deve prima denaturare il DNA, quindi si apre e poi lo si copia. Per copiare il DNA nella PCR servono: un primer, vale a dire una piccola sequenza di DNA artificiale complementare al DNA che si sta copiando; quindi il primer si andrà a legare, andrà a formare la doppia elica con il DNA che si vuole copiare, e da lì si fa partire l'estensione, la copiatura del DNA. Il primer serve per far partire la reazione. La seconda cosa che serve è la DNA polimerasi, è l'enzima che polimerizza il DNA; infine, si devono aggiungere (non disegnati) i vari nucleotidi artificiali (mattoncini) che la DNA polimerasi prende e attacca estendendo piano piano la catena. A cosa può servire un molecular beacon che sfrutta l'effetto FRET nella PCR real-time? Si può creare questa sonda, questo beacon, in modo che sia una sequenza molto piccola di basi per cui, nel beacon, il fluoroforo e il quencher si trovano sempre vicini tra di loro e non si rileva l'effetto FRET. Questa sequenza è molto piccola, complementare a una piccola porzione del DNA, quindi andrà a legarsi al DNA non appena verranno aperte le doppie eliche; si andrà a legare alla singola elica di DNA. Quando arriva la DNA polimerasi, continua ad estendere il DNA e quindi va a inserire i suoi nucleotidi e il fluoroforo verrà staccato; a questo punto il fluoroforo viene liberato in soluzione, non è più vicino al quencher e si può rilevare l’emissione del fluoroforo. Ogni volta che una molecola di DNA viene copiata si libera una molecola di fluoroforo; quindi, più volte il DNA viene copiato, più molecole di fluoroforo vengono liberate e maggiore sarà l'intensità della fluorescenza che si rileva nel sistema di analisi. Rilevando l'intensità di fluorescenza si risale a quante copie del DNA sono state fatte. Ciò che costituisce la struttura del DNA, gli zuccheri, vengono eliminati dalla DNA polimerasi che passando ne crea uno nuovo, quindi polimerizza la catena aggiungendo nuovi nucleotidi, stacca queste parti artificiali che si erano appaiate ma non avevano ancora formato la doppia elica stabile. 8 In soluzione è molto più difficile che si trovino vicini perché c'è molto spazio quindi il volume è elevato, per cui è difficile che fluoroforo e quencher si trovino vicini; vengono mantenuti vicini soltanto da questa struttura, da questa catena, quindi quando questa viene rotta si allontanano ed è molto improbabile che si trovino così vicini da risentire dell'effetto FRET. Chiaramente, come in tutte le rilevazioni in fluorescenza, non si conosce il numero esatto di copie fatte (si tratta di milioni di copie), questa finezza nella discriminazione tra il numero di copie create non c'è, si può stimare in modo abbastanza preciso il numero di copie ottenute in funzione della intensità di fluorescenza che viene prodotta. Nanoparticelle metalliche Le nanoparticelle metalliche sono le particelle d'oro e le nanoparticelle di ossidi di ferro; quest’ultime hanno caratteristiche che vengono definite super paramagnetiche al di sotto di una certa dimensione critica, che è circa 128 nm. Tipicamente la dimensione è nell’intorno dei 100 nm, tra qualche nm e 100 nm, quindi si rileverà il fenomeno del superparamagnetismo. Le particelle di ossidi di ferro presentano caratteristiche differenti rispetto al materiale in forma di bulk; il ferro è un materiale ferromagnetico, quindi questa caratteristica dell'essere super paramagnetiche deriva dalle dimensioni nanometriche, è una modifica delle proprietà del materiale che viene con l’averlo prodotto alla nanoscala. Curve di magnetizzazione dei materiali Qual è la differenza tra un materiale ferromagnetico, paramagnetico e super paramagnetico? I materiali ferromagnetici sono materiali che, una volta esposti a un campo magnetico esterno, si magnetizzano e mantengono la loro magnetizzazione anche quando il campo magnetico esterno viene rimosso; per differenza i materiali paramagnetici (la curva verde) si magnetizzano quando viene applicato un campo 9 magnetico esterno ma si smagnetizzano quando il campo esterno viene rimosso. Si vede nel grafico il campo magnetico esterno e la magnetizzazione indotta nel materiale: se si applica il campo magnetico esterno il materiale ferromagnetico si magnetizza, quindi acquisisce una certa magnetizzazione; quando si azzera il campo esterno, quindi lo si riporta a 0, il materiale ferromagnetico segue la curva rossa e rimane magnetizzato, quindi ha una magnetizzazione residua. Se si rimuove il campo magnetico il materiale mantiene la sua magnetizzazione perché il materiale, a livello microstrutturale, è costituito da diversi domini, chiamati domini ferromagnetici, ognuno dei quali presenta un allineamento casuale, quindi sono allineati in modo casuale gli uni rispetto agli altri. Applicando un campo magnetico esterno lungo una direzione (in figura sopra esempio freccia verticale), i domini magnetici nel materiale tendono ad allinearsi tutti con il campo che si sta applicando dall'esterno, tutti prendono questo allineamento parallelo a quello del campo esterno. Alcuni domini, che sono quelli che erano già orientati in modo favorevole, tenderanno a crescere rispetto agli altri, quindi crescendo diventano più grandi, vanno a creare delle tensioni, a spingere sui domini più piccoli e creano delle tensioni a livello delle interfacce tra i domini magnetici. Queste tensioni ostacolano poi il ritorno dei domini più piccoli alla loro configurazione rilassata, quando il campo viene rimosso. Quindi si applica il campo, i domini si allineano in direzione del campo, i domini allineati favorevolmente crescono e premono sugli altri, quindi generano delle tensioni. Ora si rimuove il campo esterno, i domini vorrebbero tornare nella loro configurazione rilassata ma non possono perché la crescita dei domini orientati favorevolmente li comprime, impedendo che ritornino alla loro configurazione originale; il materiale mantiene una magnetizzazione netta anche quando voi si rimuove il campo esterno. Questi sono i materiali ferromagnetici. Perché gli ossidi di ferro di dimensioni nanometriche non sono più ferromagnetici? Perché la dimensione della particella è più o meno quella di un singolo dominio magnetico: ogni particella ha una dimensione confrontabile o più piccola rispetto a quella del singolo dominio magnetico nel materiale, quindi quando si va ad applicare il campo esterno, tutte le particelle si allineano con il campo ma, siccome ciascuna particella è come se fosse un singolo dominio, non c'è nessun altro dominio vicino che può comprimere, quindi, dato che non c'è l'effetto di tensione nel 10 materiale esercitato dall'interazione tra domini magnetici che è presente nel materiale in forma di bulk, le particelle dello stesso materiale (cambia solo la dimensione), quando si rimuove il campo, ritornano tutte nella loro configurazione originale. Non c'è quell’effetto di tensione esercitata dai domini vicini che impedisce il ritorno dei domini nella loro configurazione originale; non essendoci questo effetto il materiale non mantiene la magnetizzazione quando il campo viene rimosso, le particelle si riallineano casualmente esattamente come prima, come prima dell'applicazione del campo. Sono costituite da un materiale che allo stato di bulk è ferromagnetico ma che, per via della piccola dimensione, si comporta come un materiale paramagnetico. La differenza tra i materiali super paramagnetici e i materiali paramagnetici è la magnetizzazione che possono acquisire: i materiali paramagnetici si magnetizzano con il campo esterno applicato e si smagnetizzano quando si rimuove. A parità di campo magnetico applicato, i materiali paramagnetici si magnetizzano molto meno rispetto ai materiali ferromagnetici, si dice che hanno una minore suscettibilità magnetica. I materiali super paramagnetici conservano l’elevata suscettibilità magnetica dei materiali ferromagnetici da cui derivano, ma hanno un comportamento simile a quello dei materiali paramagnetici per via delle dimensioni nanometriche, dunque perdono la magnetizzazione quando il campo viene rimosso. Domanda: ruota fisicamente la particella o i domini? La particella ruota e si vedrà che è un vantaggio che si sfrutterà nelle applicazioni terapeutiche della nanoparticella stessa. 11 Buffoni/Sinnona 06_BIONANOTECNOLOGIE (Mattu) 10/03/2022 Ossidi di ferro Le proprietà degli ossidi di ferro possono essere utilizzate per varie applicazioni in nanomedicina. L’ossido di ferro è una particella piena, quindi non c’è una cavità all’interno della quale si possono incapsulare i farmaci però possono essere utilizzati per trasportare farmaci e acidi nucleici (farmaci biologici per terapia genica), a patto che i farmaci siano legati sulla superficie della particella. Quindi, nel caso di trasporto di farmaco bisogna mettersi vicino alla superfice della particella, non ci si può mettere all’interno. Queste sono due applicazioni drug and gene delivery che richiedono la presenza dell’agente terapeutico in superficie. Possiamo utilizzare gli ossidi di ferro anche per la terapia termica, sfruttando il fatto che le nanoparticelle di ossido di ferro si allineano con il campo magnetico esterno alternato applicato. Cambiando la direzione del campo magnetico le particelle ruotano continuamente lungo il loro asse e si riscaldano. Quindi, generando calore possono essere utilizzate per alcune terapie che si basano sullo sviluppo locale di calore. Le nanoparticelle di ossido di ferro possono essere utilizzate come mezzo di contrasto anche per imaging medico, in particolare per risonanza magnetica. Anche per le particelle magnetiche di ossido di ferro identifichiamo 2 strutture: core e shell. Il core è la nanoparticella di ossido di ferro, mentre lo shell può essere costituito da polimeri, per esempio polimeri idrofilici, come il PEG. Quando si aggiunge il PEG nel compartimento superficiale si ottengono le solite particelle STEALTH. Questo per far capire che questi concetti si applicano a tutti i tipi di nanomedicina. Ci sono poi alcune caratteristiche differenti, per esempio gli ossidi di ferro sono differenti dai quantum dot in termini di possibile applicazione, così come differiscono dalle particelle d’oro e dalle particelle polimeriche. Altri possibili costituenti dello shell possono essere surfattanti organici, componenti inorganici, cioè non-polimerici (esempio ossido di silicio che può essere messo in superficie per migliorare alcune proprietà come la biocompatibilità dei quantum dots), molecole bioattive (quello che noi abbiamo chiamato ligandi). Tutte le modifiche superficiali fatte su ossidi di ferro hanno lo scopo di stabilizzare la forma e ridurre fenomeni di aggregazione; se non viene messo qualcosa in superficie le particelle tendono a legarsi le une con le altre. Si desidera che le particelle rimangano separate le une dalle altre, ma senza mettere nulla in superficie per stabilizzarle, le particelle tenderanno ad aggregarsi e a precipitare. Si vuole che le particelle rimangano sospese in acqua. Gli ossidi di ferro sono più biocompatibili dei quantum dots, ma non sono biodegradabili; essi tendendo ad accumularsi in organi non bersaglio come cervello e reni e se non smaltiti adeguatamente ad esempio attraverso le urine, cioè i meccanismi naturali di clearance, permangono a lungo all’interno dell’organismo. Tutte le particelle inorganiche hanno il problema dell’accumulo, mentre le particelle polimeriche vengono facilmente degradate dall’organismo e non danno grandi problemi di accumulo. Riassumendo: il core contribuisce agli effetti di imaging o terapeutici mentre il compartimento esterno (shell) può essere rappresentato da molecole di targeting, molecole funzionali, un rivestimento polimerico o altri agenti di imaging, dando quindi la possibilità di fare riconoscimento, terapia ed eventualmente di aggiungere un’altra modalità di imaging da combinare a quello di risonanza magnetica. 1 Buffoni/Sinnona 06_BIONANOTECNOLOGIE (Mattu) 10/03/2022 Nanoparticelle di ossido di ferro come mezzo di contrasto per MRI Cominciamo con l’applicazione della nanomedicina degli ossidi di ferro come agenti di contrasto in risonanza magnetica. L’ imaging in risonanza magnetica sfrutta la presenza di atomi di idrogeno che si trovano nell’acqua dei tessuti quando questi vengono esposti ad un campo magnetico esterno. I protoni idrogeno possono essere pensati come dei piccoli magneti, quindi ciascuno dotato di un suo momento magnetico, quindi un vettore magnetizzazione. Se gli atomi di idrogeno non sono influenzati da un campo magnetico esterno, i protoni di idrogeno sono orientati in modo casuale gli uni rispetto agli altri e la magnetizzazione risultante nel tessuto è nulla. Se si applica un campo magnetico esterno (B0), i protoni idrogeno tendono ad allineare il proprio vettore magnetizzazione in direzione parallela al campo esterno (B0). I vettori magnetizzazione possono essere scomposti in una componente longitudinale e una componente trasversale. Quando di applica B0 la componente longitudinale (parallela al campo esterno) dei vettori magnetizzazioni degli atomi di idrogeno è massima, mentre la componente trasversale avrà valore zero. Il tessuto acquisisce una magnetizzazione netta nella direzione del campo esterno B0. Mentre la componente trasversale sarà zero. Il tessuto si è magnetizzato assumendo un vettore magnetizzazione risultante allineato a B0. Applicando poi un campo magnetico perpendicolare al campo magnetico esterno B0, i protoni idrogeno tendono a ruotare nella direzione del secondo campo applicato; ruotando la magnetizzazione netta del tessuto, avrà una componente longitudinale e una trasversale. Quando viene rimosso il secondo campo, i protoni tendono a riallinearsi con il primo campo magnetico esterno e vettore magnetizzazione risultante nel tessuto torna ad allinearsi con il primo campo B0 e il vettore magnetizzazione risultante nel tessuto ritorna ad avere solo la componente longitudinale e nessuna componente trasversale (fenomeno di rilassamento). Il fenomeno di rilassamento è caratteristico dei tessuti e dipende dall’interazione tra i protoni idrogeno (spin) e il tessuto circostante e anche dall’interazione tra protoni idrogeno. 2 Buffoni/Sinnona 06_BIONANOTECNOLOGIE (Mattu) 10/03/2022 Il fenomeno di rilassamento può essere quindi suddiviso in due fenomeni simultanei: il rilassamento spin-reticolo ed il rilassamento spin-spin. Ciascuno di questi fenomeni è caratterizzato da un certo tempo (T1 E T2). T1 (rilassamento spin-reticolo) è il tempo necessario perché il vettore magnetizzazione recuperi la sua componente longitudinale, per la precisione al 63% del suo valore massimo. T2 (rilassamento spin-spin) è il tempo necessario alla componente trasversale del vettore magnetizzazione per tornare a zero. Per la precisione che decada al 37% del valore iniziale. Tessuti diversi hanno contenuto d’acqua diverso, componenti cellulari diversi e quindi diverso tempo di rilassamento in T1 o in T2. Per vedere attraverso imaging un tumore in un tessuto in stato avanzato, ha un diverso tempo di rilassamento rispetto al tessuto sano in cui è contenuto. Se i tessuti sono diversi il tempo caratteristico sarà diverso e si vedrà contrasto tra i tessuti che hanno diverso tempo di rilassamento. Non sempre è possibile distinguere i tessuti sulla base del loro normale comportamento al rilassamento; per esempio, un tumore in fare iniziale non differisce più di tanto dal tessuto sano e il contrasto potrebbe non essere così evidente. 3 Buffoni/Sinnona 06_BIONANOTECNOLOGIE (Mattu) 10/03/2022 Esistono gli agenti di contrasto che migliorano il contrasto in area oggetto di imaging. Gli agenti di contrasto possono agire su T1 (accelerando il tempo di recupero della magnetizzazione longitudinale). Gli agenti di contrato che agiscono su T1 sono chiamati agenti di contrasto positivi e generano un’immagine di contrasto più chiara. L’immagine in risonanza magnetica sarà più chiara rispetto al background. Gli agenti di contrasto che agiscono su T2 accelerano il tempo di decadimento della componente trasversale del vettore magnetizzazione e così facendo generano un contrasto negativo. L’immagine apparirà più scura rispetto al background. Esempio di agente di contrasto T1 è il gadolinio che in risonanza magnetica da un’immagine più chiara ed è perciò preferito, in quanto immagini più chiare sono più semplici da interpretare. Gli agenti di contrasto di tipo T2, come le nanoparticelle di ossido di ferro danno un’immagine più scura e perciò possono portare a confusione con rumore di fondo (artefatti del tessuto) e rendere più difficile l’interpretazione dell’immagine. Per questo motivo gli ossidi di ferro possono essere combinati con altri agenti di imaging per migliorarne gli effetti, come isotopi radioattivi per l’imaging PET. (Esempio preclinico) Combinando un isotopo radioattivo del rame (rame64) con un ossido di ferro in risonanza magnetica si migliora il contrasto scuro nel linfonodo. Combinando anche con l’imaging PET si nota l’accumulo del tracciante radioattivo dando due informazioni complementari, andando così a supplire alle carenze del primo. Viene così migliorata l’efficienza. Terapia ipertermica dei tumori Applicando un campo magnetico esterno alternato, cambiando in continuazione la freccia del vettore magnetizzazione, la nanoparticella ruota, questa rotazione continua genera un calore localizzato, con temperature superiori anche ai 60⁰C. Riuscendo ad iniettare e far accumulare le nanoparticelle nel tumore, ad esempio attraverso l’effetto EPR, scaldandole poi attraverso l’applicazione del campo magnetico dall’esterno, si riescono a raggiungere temperature elevate all’interno della massa cellulare. Le alte temperature sono mal sopportate dalle cellule, portandole ad apoptosi. Si riesce così ad ottenere una terapia che sfrutta una generazione localizzata di calore. 4 Buffoni/Sinnona 06_BIONANOTECNOLOGIE (Mattu) 10/03/2022 Si è più selettivi nei confronti del tumore rispetto ai vasi sani che lo circondano grazie all’architettura dei vasi sanguigni dei tumori di cui si è parlato nella scorsa lezione. I vasi sanguigni nei tumori sono molto disorganizzati e non molto capaci di scambiare calore con l’esterno; il calore generato nella massa viene smaltito con difficoltà. Viceversa, il tessuto sano scambia calore con facilità, quindi è più in grado di smaltire il calore e risulta meno danneggiata dalle alte temperature. È possibile così indurre la morte programmata di cellule tumorali. Questi approcci sono usati anche in molti trial clinici. Sono presenti però alcuno problemi: il primo problema è che per ottenere un aumento apprezzabile della temperatura bisogna iniettare alte dosi di nano particelle, ma non sono biodegradabili (generano fenomeni di accumulo). Un secondo problema è la generazione di meccanismi di autoprotezione delle cellule tumorali che generano fenomeni di autoprotezione, diventando resistenti a trattamenti di ipertermia. Esempi in fase di trial clinico applicati in piccoli studi controllati: NANOPROBES nanoparticelle per iniezione sistemica che attraverso effetto EPR vengono fatte accumulare nel tumore e poi scaldate attraverso un campo magnetico esterno alternato che genera una produzione locale di calore. Per migliorare la biocompatibilità degli ossidi di ferro in questo sistema è sfruttato un rivestimento con coating polimerico la cui composizione non è nota. È un sistema in fase di sviluppo preclinico, perciò si sono effettuati solo test su piccoli animali di piccola dimensione, cioè topi che presentano un modello tumorale sottocutaneo iniettato nella zona del fianco. La zampa dell’animale viene inserita all’interno di un magnete e viene fatta oscillare su e giù, generando il campo magnetico alternato esterno, con conseguente surriscaldamento degli ossidi di ferro. Nella massa tumorale si raggiungono temperature di 65 gradi (rosso), nelle zone limitrofe la temperatura è di 40 gradi (verde), come si può vedere nella mappa di temperatura. All’interno della massa tumorale si raggiunge il massimo della temperatura che si traduce in una maggiore sopravvivenza dei topi. 5 Buffoni/Sinnona 06_BIONANOTECNOLOGIE (Mattu) 10/03/2022 La curva di sopravvivenza riporta i giorni e la percentuale di animali ancora vivi a ciascun tempo dell’esperimento. All’inizio dell’esperimento il 100% degli animali è vivo. Ogni gradino della curva rappresenta un evento di morte durante il trattamento. Al giorno 20 abbiamo 1 soggetto morto e quindi un gradino nella curva. La stessa cosa al giorno 30. Il grafico evidenzia una sopravvivenza del 78%, in caso di trattamento, cioè ci sono 7 su 9 animali vivi. Gli animali sono trattati con i vari controlli: solo particelle magnetiche senza campo esterno, nessun trattamento, solo campo magnetico esterno alternato senza nanoparticelle. Tutti i controlli lasciano lo studio dopo circa 10 giorni. Nessun animale sopravvive nel lungo termine. Nel caso degli animali trattati con nanoparticelle di ossidi di ferro e campo magnetico esterno, la sopravvivenza aumenta: gli animali sottoposti a trattamento sono vivi anche 150 giorni dal trattamento. L’approccio sembra essere promettente. HYPERTHERMIA Video mostrato in aula: si vuole iniettare per via endovenosa delle particelle di ossido di ferro per sfruttare l’effetto EPR e per ridurre la tossicità delle particelle fanno questo rivestimento polimerico che non altera le proprietà magnetiche della particella che si trova all’interno. L’effetto EPR fa accumulare le particelle nel tumore perché i vasi sanguigni sono più permeabili, a questo punto applicano il campo magnetico esterno. Il rivestimento polimerico potrebbe degradarsi con il riscaldamento ma è un’informazione che non è stata rilasciata. Le temperature che si raggiungono nella massa tumorale sono molto più elevate rispetto ai tessuti interni. NANOTHERM THERAPY Si tratta di particelle di ossido di ferro con rivestimento polimerico, per ridurre la tossicità ed aumentare la stabilità (più compatibile ma rimane biodegradabile), come l’esempio precedente. La differenza è che questo sistema prevede l’iniezione delle particelle direttamente nella massa tumorale, non è previsto per l’iniezione sistemica. È per questa ragione usato per tumori localizzati, principale tra questi il glioblastoma multiforme che è un tumore primario al cervello, per cui la terapia primaria è rappresentata dalla rimozione chirurgica seguita da radioterapia e chemioterapia, 6 Buffoni/Sinnona 06_BIONANOTECNOLOGIE (Mattu) 10/03/2022 ma tipicamente il tumore tende a ricomparire dopo alcuni mesi o alcuni anni e le ricorrenze non vengono trattate allo stesso modo infatti non si fa un secondo intervento di rimozione ma solo chemioterapia e radioterapia. Il sistema NanoTherm è in trial clinici per il trattamento di glioblastomi multiformi ricorrenti, quindi nel caso di pazienti che presentano una seconda ricomparsa del tumore. Il rivestimento polimerico è brevettato. Dopo l’iniezione viene sottoposto il paziente ad un campo magnetico esterno per un ora e l’operazione può essere ripetuta fino a sei volte con una sola iniezione. I risultati del trial clinico non randomizzato (non ci sono gruppi di pazienti trattati con trattamenti diversi, tutti i pazienti ricevono il trattamento con NanoTherm e in alcuni casi anche con radioterapia) non consentono di distinguere fra gli effetti del possibile accoppiamento con altre terapie; inoltre manca il gruppo di controllo che sono i pazienti che ricevono il trattamento migliore ora disponibile, ciò perché esiste già molta letteratura e dati a riguardo. Le particelle vengono iniettate direttamente nella massa tumorale. Nell’ immagine radiografica gli ossidi di ferro danno contrasto in negativo, quindi si ha un’immagine più scura nei punti di accumulo. Vi sono poi delle mappe in temperatura. La linea rossa evidenzia la temperatura raggiunta dalla massa tumorale (50 gradi) e la linea blu rappresenta la temperatura raggiunta nella zona limitrofa alla massa tumorale (40 gradi). Nella curva di sopravvivenza è evidenziata una sopravvivenza media di 11/14 mesi contro 6 mesi circa per i pazienti sottoposti a terapia standard (la migliore terapia attualmente disponibile). Non sappiamo se i dati di sopravvivenza forniti si riferiscano a pazienti sottoposti a solo trattamento con nanoparticelle o trattamento con nanoparticelle più radioterapia. È solo un trial clinico iniziale, se tutto va bene si procederà con trial clinici più complessi. 7 Buffoni/Sinnona 06_BIONANOTECNOLOGIE (Mattu) 10/03/2022 TRASCINAMENTO MAGNETICO (Magnetic dragging) Sfrutta la proprietà magnetica della particella di ossido di ferro attraendola e facendola accumulare nel sito di interesse attraverso l’applicazione di un magnete esterno. Non affidandosi solo all’effetto EPR (non funziona sempre) si migliora l’effetto attraverso l’applicazione di un campo magnetico esterno nella zona di interesse usando il flusso sanguigno per farle accumulare nella zona vicino al magnete. Si funzionalizza la particella magnetica legando alla superficie dei farmaci, in modo che molto più farmaco vada ad accumularsi nella massa tumorale, con conseguente miglioramento dell’effetto terapeutico. Oltre al trasporto mirato di farmaci si può utilizzare anche precedentemente alla terapia termica (non risultano ancora applicazioni cliniche, siamo a livello preclinico). Esempio: viene trascinato il farmaco PACLITAXEL grazie ad un sistema di nanoparticelle attratte da un magnete esterno. Nello studio in trial clinico su tumori all’esterno della zampa di topo, nel caso di animale non trattato (somministrazione solo di soluzione salina) il tumore appare di grande dimensione. Nel caso di trattamento con PACLITAXEL (TAXOL della formulazione brevettata), l’animale presenta ulcerazioni della massa. Rispetto all’utilizzo del farmaco libero le particelle permettono di ridurre la massa tumorale. Misurando con un calibro si vede che con il trattamento agli ossidi ferro il tumore è effettivamente più piccolo. 8 Buffoni/Sinnona 06_BIONANOTECNOLOGIE (Mattu) 10/03/2022 Con lo stesso approccio (modello tumorale sottocutaneo, iniezione per via sistemica nella vena caudale, campo magnetico applicato alle particelle di ossido di ferro) ma con differente farmaco (Doxorubicina) la sopravvivenza è per quasi tutti gli animali a 60 giorni dall’iniezione. Misurando il quantitativo di ferro, cioè delle nanoparticelle di ferro; la barra in arancione corrisponde alla quantità di ferro nel muscolo della coscia che a sua volta corrisponde al punto in cui è stato messo il magnete. Nei tessuti si nota una più alta percentuale di ferro nella zona tumorale rispetto al caso della sola presenza dell’effetto EPR. Effettivamente il trascinamento magnetico consente di avere un accumulo, a livello della massa tumorale, molto maggiore rispetto al solo effetto EPR. Effettivamente si può utilizzare per incrementare il targeting tumorale (targeting intelligente). Guardando il grafico del volume del tumore, la curva in blu corrisponde al trattamento con solo effetto EPR. Si nota che l’effetto terapeutico non è stato accentuato molto dall’aggiunta del magnete. È vero che la sopravvivenza aumenta con l’utilizzo del metodo, però questi risultati non sono poi così promettenti; in primis perché tra trattamento con magnete ed effetto EPR non c’è una differenza così netta, ma soprattutto perché quasi tutti questi studi preclinici sono limitati ai tumori sottocutanei. Il tumore sottocutaneo è un modello molto semplificato e vascolarizzato, perché il tumore che cresce nel sottocute richiama vasi sanguigni e gode sicuramente dell’effetto EPR (questo non è detto nel caso in cui il tumore fosse trasferito nella sua corretta localizzazione). Questi studi preclinici sono detti di proof of concept, ovvero spiegano come questi sistemi possano funzionare, ma mancano delle dimostrazioni più fondate che questi sistemi possano funzionare su un organismo più grande e complesso come quello dell’uomo. L’utilizzo dei modelli sottocutanei ha falsato le potenzialità della nanomedicina e ha generato l’idea che tutti i tumori potessero essere targettati mediante l’effetto EPR, questo ha portato al fallimento di molti trial clinici che erano stati studiati con modelli troppo semplificati. Negli anni si è capito che l’effetto EPR non è caratteristico di tutti i tumori e che dipende da molti aspetti incluso lo stadio. 9 Buffoni/Sinnona 06_BIONANOTECNOLOGIE (Mattu) 10/03/2022 Riassunto: ! Le nanoparticelle di ossido di ferro sono fatte con materiali ferromagnetici ! Le loro dimensioni nanometriche fanno si che presentino caratteristiche simili a materiali paramagnetici, pertanto sono definiti superparamagnetici ! Possono essere manipolati dall’esterno attraverso l’applicazione di un campo magnetico ! Possono essere sfruttati per il trasporto di farmaci ! Danno contrasto in risonanza magnetica perché accelerano il fenomeno del rilassamento spinspin, rendono le immagini più scure ! Si possono riscaldare applicando un campo magnetico alternato dall’esterno per applicazioni nel trattamento di ipertermia dei tumori. INTRODUZIONE A NANOPARICELLE D’ORO Particelle metalliche con un profilo di biocompatibilità migliore rispetto alle nanoparticelle di ossidi di ferro ma sono comunque non biodegradabili, perciò permane il problema dell’accumulo. Le nanoparticelle d’oro sono sospensioni colloidali di oro in acqua e possono avere diversa forma e dimensione. La forma e la dimensione sono i due parametri principali che caratterizzano le proprietà delle nanoparticelle d’oro. Sono altamente monodisperse, ovvero all’interno della stessa sintesi di nanoparticelle si riesce ad avere alta riproducibilità in termini di dimensioni e di forma; ottenendo nanoparticelle tutte della stessa dimensione e più o meno tutte con la stessa forma. L’oro ha il vantaggio di essere prelevabile in molti modi diversi. 10 Serra/Casari 07 Bionanotecnologie (Mattu) 10/03/2022 Gold nanoparticles Le nanoparticelle d’oro sono delle sospensioni colloidali di particelle molto piccole di oro in acqua che possono avere diverse dimensioni e diversa forma e che hanno il vantaggio di essere altamente monodisperse, cioè tutte le particelle di una sospensione hanno un’elevata uniformità di dimensioni e di forma. Una volta deciso il range dimensionale e la forma con cui si vogliono realizzare le particelle d’oro, si riesce a essere esattamente precisi e riproducibili nell’ottenerle tutte più o meno nello stesso modo, con poca variabilità. Il vantaggio dell’oro è che è rilevabile con diversi metodi. Per queste particelle è sempre possibile distinguere i due compartimenti: core e superficie; nel caso delle particelle d’oro il core può essere ottenuto con diverse forme, le più comuni risultano essere: sfere, cilindri (rod) e nanostelle. Variando le dimensioni del core variano alcune proprietà importanti. La superficie può essere rivestita con polimeri, farmaci (biologici o no), può contenere catene idrofiliche per migliorare la circolazione, come per esempio il PEG, o può contenere una serie di agenti di imaging. Coupling passivo sulla superficie Sulla superficie si può avere una vasta gamma di funzionalizzazioni che possono essere fatte direttamente sulla superficie dell’oro, attaccando i ligandi/agenti di imaging direttamente sulla superficie d’oro (Coupling passivo). Questo si può fare perché l’oro, come tutti i metalli, ha una superficie molto reattiva e quindi si può sfruttare per ottenere una serie di reazioni; si possono inserire direttamente sulla superficie d’oro le biomolecole di interesse, ma bisogna fare attenzione perché le reazioni dipendono dalle condizioni al contorno, come per esempio: il pH, la temperatura, la generazione dei sali e così via. Può succedere che le reazioni diventino instabili, quindi ciò che è stato messo sulla superficie si stacca per via della variazione delle condizioni al contorno e quindi la superficie si espone e le particelle tenderanno nuovamente ad aggregarsi tra loro: in questo modo si perde la dimensione e l’aggregato di particelle può essere assimilato ad una particella ma con un diametro molto maggiore. Come è stato detto prima, le proprietà delle particelle d’oro dipendono fortemente dalla loro dimensione, quindi se questa cambia si perde il controllo sulle proprietà di interesse. È vero quindi che si può legare direttamente sulla superficie, ma questa tipologia di legame è molto più instabile. Coupling covalente Si può interporre tra le molecole che si vogliono mettere in superficie e la superficie d’oro uno strato polimerico (rappresentato in nero) sul quale si vanno a fare le reazioni chimiche. Questo rende il passaggio un po’ più laborioso, perché bisogna fare due step, in quanto prima si riveste lo strato intermedio e poi si mettono le molecole in superficie, però permette di essere più riproducibili, rende le reazioni chimiche più stabili e soprattutto, interponendo lo strato intermedio polimerico, si ha più spazio per orientare le molecole. Risposta ad una domanda fatta in aula: Il coupling passivo è inteso come legame delle biomolecole. Se si vuole legare un anticorpo direttamente alla superficie si può provare a sfruttare 1 Serra/Casari 07 Bionanotecnologie (Mattu) 10/03/2022 l’interazione con la chimica dei tioli, tra l’oro e il gruppo SH che è un legame piuttosto forte. Il problema è che se si vuole sfruttare la reazione in superficie bisogna affidarsi alle modifiche di carica sulla superficie che sono da controllare controllando le condizioni di reazione. Così facendo, se si perde il controllo di queste condizioni, questa reazione non avviene come si vuole, può quindi succedere che a causa delle variazioni delle condizioni esterne, ciò che si era messo sulla superficie si tolga e quindi le biomolecole si staccano dalla superficie. Invece di fare in questo modo, durante la sintesi, si inserisce uno strato superficiale intermedio usando una chimica più stabile direttamente sulla superficie dell’oro e a questo si vanno ad attaccare le biomolecole. È possibile che questo strato intermedio si stacchi, ma è molto meno probabile del distacco delle biomolecole dalla superficie. Quindi, un vantaggio dell’interporre uno strato polimerico intermedio è quello di poter orientare le biomolecole. Ad esempio, quando si è parlato di quantum dots con la sequenza RGD, quando si ha la possibilità di attaccare la biomolecola (quindi una struttura tridimensionale) in maniera mobile, invece che attaccarla direttamente sulla superficie, si ha la possibilità di favorire la corretta orientazione tridimensionale di questa biomolecola. Se il ligando è libero di muoversi è più facile che interagisca col suo recettore rispetto alla situazione in cui è attaccato alla superficie, quindi meno libero di muoversi favorevolmente. Se si hanno delle particelle d’oro funzionalizzate possono essere utilizzate per diverse funzioni: • • • • • • Rilascio di farmaci: in questo caso il farmaco deve essere posizionato sulla superficie; Imaging: le nanoparticelle d’oro, opportunatamente stimolate, agiscono come agenti di contrasto in quello che si chiama “imaging fotoacustico”; Terapia termica dei tumori: scaldare le particelle d’oro; in questo caso non si applica un campo magnetico, ma una radiazione incidente, tipicamente nell’infrarosso, si parla quindi di terapia fototermica; Targeting tumorale: aggiungendo degli agenti di targeting sulla superficie; Radioterapia; Rilevazione in vitro: prima applicazione in cui sono state utilizzate le particelle d’oro e sono tutt’ora utilizzate. Sono presenti in molti test, ad esempio nel test di gravidanza che funziona sfruttando alcune proprietà delle nano particelle d’oro; Le nanoparticelle d’oro, quindi le sospensioni colloidali, hanno un aspetto completamente diverso rispetto a quello dell’oro in forma di bulk. Si vede già a occhio la netta differenza da quando si passa dalla macro alla nano scala. Le nanoparticelle d’oro si presentano come soluzioni colorate, mentre nella forma di bulk si presenta come tutti i metalli, cioè lucente e opaco. Il colore di queste sospensioni colloidali d’oro dipende dalle dimensioni delle nanoparticelle, dalla loro forma e anche dal mezzo in cui sono disperse (tipicamente acqua). A parità di mezzo di dispersione, la forma e le dimensioni delle nanoparticelle influiscono su questa proprietà, cioè sul colore della sospensione. Anche altre particelle metalliche, in forma di sospensioni colloidali, cioè di nanosospensioni, hanno queste stesse proprietà (es. nanoparticelle di argento). 2 Serra/Casari 07 Bionanotecnologie (Mattu) 10/03/2022 L’oro in forma di bulk si presenta come un metallo: lucido, opaco. Questo significa che non permette alla luce di passare attraverso, non è trasparente, e respinge la luce che lo colpisce, per cui appare lucente. Il motivo di queste proprietà è legato alla struttura atomica del materiale. Gli elettroni di valenza, nei materiali metallici, sono condivisi tra atomi. Gli elettroni di valenza (esterni), invece di essere appartenenti a un solo nucleo, è come se fossero condivisi, quindi tutti i nuclei condividono gli elettroni di valenza. Questo vuol dire che gli elettroni sono liberi di muoversi nel reticolo. Tale elevata mobilità degli elettroni di valenza spiega l’alta conducibilità termica ed elettrica dei metalli. Se si colpisce la superficie di un metallo con la luce, gli elettroni in superficie liberi di muoversi vengono eccitati, cioè vengono promossi a stati energetici più alti. Questi elettroni così mobili sono chiamati “plasma di elettroni”, cioè si può assimilare il movimento degli elettroni all’interno dei reticoli dei materiali metallici come un liquido ad alta densità. Quando gli elettroni vengono eccitati, si perturba il plasma di elettroni e si genera un fenomeno chiamato plasmone di superficie. In sostanza, si colpisce la superficie con la luce, gli elettroni assorbono tutte le componenti della luce incedente, si eccitano, passano a stati energetici superiori e, decadendo dallo stato più alto a quello più basso, riemettono tutte le lunghezze d’onda che componevano la luce incidente. Così facendo si allontanano e si avvicinano alla superficie, e quindi si genera un’onda di elettroni, chiamata plasmone di superficie. La nube di elettroni si propaga viaggiando parallelamente alla direzione della superficie. Dato l’alto numero di elettroni, tutte le lunghezze d’onda presenti nella radiazione incidente vengono assorbite (quando gli elettroni passano a stati energetici superiori) e riflesse (quando gli elettroni ricadono nel loro stato iniziale riemettendo la stessa radiazione che li aveva colpiti). Per quanto riguarda l’oro in forma di bulk, quando esso viene colpito da una radiazione incidente, tutta la luce che lo colpisce (= luce visibile, composta da diverse radiazioni di diverse lunghezze d’onda) viene assorbita e riflessa. Per questo, l’oro in bulk è opaco e lucente. Quando si riducono le dimensioni della particella fino alla nanoscala, succede che il plasmone di superficie, cioè la nuvola elettronica eccitata, rimane confinata in uno spazio molto piccolo dell’ordine dei nanometri, dunque non ha più tutta la superficie su cui muoversi. Inoltre, si hanno meno elettroni di valenza, gli elettroni esterni sono pochi. Si ha, quindi, un confinamento strutturale, dato dalla nano dimensione, e un numero ridotto di elettroni sempre dovuto dal fatto che lo spazio disponibile è poco. Quando si eccita la nanoparticella d’oro, gli elettroni vicini alla superficie rispondo alla luce incidente e assorbono alcune radiazioni presenti. Dato che non si hanno tanti elettroni come nella macroscala e lo spazio è piccolo, gli elettroni eccitati tendono ad allontanarsi dalla superficie, però quando raggiungono una certa distanza dal nucleo, questo li riattrae a sé. Prevale quindi la forza attrattiva del nucleo. La nuvola di elettroni tenderà ad allontanarsi all’inizio dalla particella, dopo di che la forza attrattiva del nucleo la richiama, e se si continua ad eccitare la particella, questa nuvola di elettroni continua ad allontanarsi dalla superficie per poi riavvicinarsi e così via; questo fenomeno si chiama risonanza plasmotica di superficie. Il plasmone di superficie è confinato, localizzato vicino alla superficie della particella, mentre nel caso del materiale in forma di bulk, il plasmone può viaggiare e propaga lungo tutta la sua superficie. 3 Serra/Casari 07 Bionanotecnologie (Mattu) 10/03/2022 Tornando alla particella nanoscopica, si ha un plasmone confinato che oscilla attorno alla particella con una certa frequenza, cioè con una certa lunghezza d’onda che dipende dalla forma e dalle dimensioni delle nanoparticelle ed è la lunghezza d’onda della radiazione che la nanoparticella d’oro assorbe. Nel caso di bulk, sulla superficie le radiazioni vengono tutte riflesse, mentre nel caso delle nanoparticelle, non tutte le radiazioni sono riflesse, ma alcune vengono assorbite e mandano il plasmone di superficie in risonanza esattamente a quella lunghezza d’onda: ecco perché le nanoparticelle d’oro appaiono con un colore. Alcune lunghezze d’onda della radiazione incidente vengono assorbite e mandano in risonanza il plasmone, e dunque questa lunghezza d’onda NON viene riflessa. Questo significa che si vedrà la sostanza che assorbe una certa lunghezza d’onda con un certo colore, che corrisponde al colore complementare della lunghezza d’onda assorbita (la lunghezza d’onda della radiazione assorbita dipende dalla grandezza della particella, dalla sua forma e dal mezzo esterno in cui le nanoparticelle d’oro sono disperse). Ad esempio, l’erba risulta essere verde poiché essa contiene la clorofilla che assorbe alcune componenti della luce incidente, in particolare assorbe nell’intorno dei 440-500nm e intorno ai 600-650nm, queste radiazioni corrispondono al blu e al rosso; queste componenti della luce non saranno riemesse, perciò l’erba si vede di un colore tra il verde e il giallo, cioè i colori complementari a quelli assorbiti. Se la nanoparticella d’oro assorbe intorno ai 520-580nm, che corrispondono al verde e al giallo, si vedrà la sospensione di particelle di un colore rossiccio, cioè i colori complementari al verde e al giallo. Riassumendo, si colpisce la sospensione con la luce, che contiene tante lunghezze d’onda; alcune vengono assorbite, altre vengono riflesse. Le prime mandano in risonanza il plasmone di superficie e non verranno riemesse, quindi di tutta la luce con cui si colpisce la particella se ne vede solo una parte. Il colore della sospensione colloidale risulta essere quindi complementare a quello della lunghezza d’onda assorbita. Risposta a una domanda: sul reticolo non bisogna considerare un numero di elettroni di valenza, ma bisogna considerare che tutti gli elettroni sono condivisi. Non si fa il calcolo della quantità effettiva degli elettroni. Attenzione a non parlare di colore della nanoparticella, perché il colore viene assunto dalla sospensione colloidale, ovvero da tante nanoparticelle sospese nel mezzo (acqua). Queste sospensioni di particelle d’oro, esposte alla luce appaiono colorate, e il colore dipende dalla forma e dalla dimensione della nanoparticella. Si possono ottenere le nanoparticelle d’oro di diverse forme, anche molto controllabili. Variando le dimensioni a parità di forma, ma anche variando la forma, si possono ottenere sospensioni con colori diversi, ma soprattutto con proprietà di risonanza plasmonica di superficie molto diverse. 1L’aspetto colorato della sospensione delle particelle d’oro è dovuto al fenomeno della risonanza plasmonica di superficie e grazie alla possibilità di poter modulare tale effetto della risonanza plasmonica si possono modulare alcune proprietà delle nanoparticelle molto importanti. Non importa tanto il colore, ma il fatto che si può sfruttare questo fenomeno per generare calore o contrasto in imaging. 1 IMPORTANTE! 4 Serra/Casari 07 Bionanotecnologie (Mattu) 10/03/2022 Con questa immagine si vede cosa succede all’assorbimento di nanoparticelle d’oro sferiche al variare delle dimensioni. Si hanno dunque delle sospensioni di particelle di diverse dimensioni, di diversi range. Si consideri il range con le piccole dimensioni: lo spettro di assorbimento (primo in alto a sinistra) indica il range di lunghezze d’onda in cui le nanoparticelle assorbono la luce/radiazione, ovvero indica la lunghezza d’onda a cui avviene il fenomeno della risonanza plasmonica di superficie. Particelle piccole assorbono nel range 500-550nm. Se si aumenta la dimensione delle nanoparticelle si ha uno shift del picco di assorbimento verso lunghezze d’onda maggiori: più le particelle sono grandi e più il picco di assorbimento si sposta verso il rosso, cioè l’infrarosso. Si può arrivare a lunghezze d’onda pari a 600nm quando le dimensioni della particella aumentano fino ai 100nm. Si nota quindi che cambiando le dimensioni cambia lo spettro di assorbimento della particella. Questo discorso vale per le particelle sferiche. Vediamo cosa succede se si cambia la forma. Ad esempio, è molto comune il nanorod, che ha la forma di un bastoncino e ha due dimensioni caratteristiche: un diametro (dimensione trasversale) e una lunghezza (dimensione longitudinale). Un altro parametro importante è anche il rapporto tra la lunghezza e il diametro. Variando questi tre parametri appena elencati, si modificano le proprietà di assorbimento, e quindi la risonanza plasmonica di superficie. Dato che il nanorod è costituito da due componenti, se si va a colpire la soluzione dei rod, si possono generare due plasmoni di superficie in corrispondenza delle due lunghezze caratteristiche: uno lungo il diametro e uno lungo la lunghezza. Nella sospensione di nanorods, la luce li colpirà a caso, si avranno quindi due picchi di assorbimento, uno che corrisponde al plasmone generato in direzione trasversale, cioè lungo il diametro e uno generato lungo la direzione longitudinale. Quindi avendo due picchi di assorbimento che si possono modulare variando le dimensioni, si vedrà la sospensione di nanorods assumere una vasta gamma di colori perché si hanno più parametri da modulare. Avere una vasta gamma di colori vuol dire che si può modulare il fenomeno della risonanza plasmonica di superficie in un range più ampio, da 520-550nm fino alla regione del vicino infrarosso, con picchi di assorbimento di circa 1300nm. Le nanostelle/nanoricci d’oro sono simili a delle particelle sferiche, ma con delle asperità sulla superficie. Si possono assimilare a delle sfere però poiché la lore superficie è modificata, non liscia, non si comportano esattamente come le sfere di pari dimensioni. Se si confronta lo spetto di assorbimento delle nanoparticelle sferiche con quello delle nanostelle, a parità di dimensioni, si vede sempre uno spostamento del picco di assorbimento verso l’infrarosso. E quindi il fatto di aver inserito delle asperità lungo la superficie permette di shiftare il fenomeno della risonanza plasmonica di superficie verso l’infrarosso. 5 Serra/Casari 07 Bionanotecnologie (Mattu) 10/03/2022 Chiaramente, spostando il picco di assorbimento verso il rosso, la sospensione assume un colore blu, perché è il colore complementare del rosso. Recap Risonanza plasmonica di superficie → alcuni elettroni in superficie entrano in risonanza, ovvero cominciano a oscillare attorno alla superficie a una lunghezza d’onda pari alla lunghezza d’onda assorbita. Questa non sarà più riemessa. A seconda delle lunghezze d’onda dove avviene la risonanza plasmonica di superficie, la sospensione colloidale di particelle assume una certa colorazione che corrisponde alle lunghezze d’onda complementari rispetto a quelle che sono state assorbite. Per i rods, si hanno due plasmoni e due picchi di assorbimento, quindi combinando tale spettro di assorbimento si vedono diversi colori perché la risonanza plasmonica di superficie si sposta di più verso il vicino infrarosso, quindi si shifta di più verso l’infrarosso e di conseguenza le sospensioni saranno più verso il blu/viola. Il plasmone di superficie cambia anche nel caso di nanostar (che rispetto alle nanoparticelle sferiche presentano delle asperità superficiali), quindi si hanno assorbimenti shiftato verso l’infrarosso e la sospensione appare blu. Si può sfruttare la variazione di colore della sospensione per numerose applicazioni: Sensing in vitro Si può monitorare la reazione tra due molecole A e B legandole a delle particelle d’oro diverse, ma di uguale dimensione. Si possono verificare due casi: (i) quando A e B sono legate alle rispettive particelle e sono distanti e separate (ciascuna con diametro 𝑑1 ), si avrà un certo spettro di assorbimento uguale per entrambe le particelle, corrispondente a quello della più piccola particella che si ha in sospensione (colore rosso perché lo spettro di assorbimento rimane nel verde); (ii) quando A e B reagiscono e si legano, portano le particelle d’oro molto vicine: il risultato è una singola nanoparticella (aggregato) con dimensioni aumentate (𝑑2 > 𝑑1) cambiando il loro spettro di assorbimento e spostando il picco verso il rosso e di conseguenza il colore della soluzione shifta verso il blu (red shift). 𝑑2 𝑑1 NPs aggregate NPs singole L’ultimo grafico in basso a destra mostra il monitoraggio nel tempo alla lunghezza d’onda di 630nm. Al tempo t=0, quando le particelle son tutte separate, non si ha nessun assorbimento; nel tempo l’intensità di assorbimento aumenta perché A e B stanno reagendo tra loro. Si evince che il tempo per completare la reazione tra A e B in tutto il volume di reazione è di 25min (tempo per il raggiungimento del plateau). La variazione di colore, dovuta allo shift del picco di assorbimento, è indicativa dello stato della reazione; infatti, se non si ha alcun assorbimento nella zona del rosso vuol dire che A e B non stanno 6 Serra/Casari 07 Bionanotecnologie (Mattu) 10/03/2022 reagendo al contrario se si ha assorbimento in quella zona allora le due molecole hanno reagito formando l’aggregato di nanoparticelle che assorbe nella lunghezza del rosso. Monitorando l’assorbimento si può avere anche un’indicazione del tempo necessario per raggiungere il plateau della reazione. Detection in vitro Test di Gravidanza: ricerca dell’ormone HCG che si trova disperso nell’urina in caso di gravidanza. Sul test sono contenute nanoparticelle d’oro sulla cui superficie è legato un anticorpo primario (rappresentato a forma di Y) specifico in maniera selettiva per l’ormone HCG, con cui si legherà se presente. Il campione d’urina bagna il test e inizia la sua corsa sulla carta assorbente che costituisce l’interno del test. Nella prima fascia più larga incontra l’anticorpo primario legato alla particella d’oro; se nell’urina è presente l’ormone target, questo si legherà all’anticorpo e di conseguenza, sarà legato anche alle particelle d’oro. Vi sono poi due linee: una che comunica il risultato del test (a sinistra), ovvero se è positivo o negativo e una di controllo (a destra) che serve a capire se il test è stato eseguito correttamente. La prima linea del test (test line in fig.) contiene anticorpi specifici dell’ormone HCG, mentre la seconda linea (control line in fig.) contiene un anticorpo secondario specifico per l’anticorpo primario. Quando il test procede, l’anticorpo primario arriva alla linea di controllo (la seconda, a destra) e viene riconosciuto dall’anticorpo secondario. Qui viene portata anche la particella d’oro (legata all’anticorpo primario) e quindi compare la linea rossa, corrispondente proprio alle particelle d’oro, che dice che il test è andato bene e che tutti gli analiti sono passati sul test. Questo dovrebbe succedere anche se non è presente l’ormone HCG; se non succede, vuol dire che il test non è valido. Se il test è positivo, una parte degli anticorpi primari legati alle particelle d’oro si saranno legati all’ormone HCG e, passando per la prima linea, si legheranno all’anticorpo primario presente su di essa. Per cui, sulla prima linea viene portato l’anticorpo primario, sul quale è legata la particella d’oro, e a cui è legato l’ormone HCG. Così facendo, le particelle d’oro si trovano sulla test line (in quanto erano legate all’ormone) e compare, dunque, la linea rossa che indica che il test è positivo. Una parte dell’anticorpo primario non reagisce, ma continua ad andare avanti sul test e si ferma sulla seconda linea in cui si lega con gli anticorpi secondari, portando dunque le nanoparticelle d’oro e permettendo la colorazione della seconda linea (dovuta proprio alla presenza delle particelle d’oro) del controllo. Se invece il test è negativo, l’HCG non è presente e sulla prima riga di anticorpi (specifici per l’ormone) non si legherà niente, mentre nella seconda si legheranno sempre gli anticorpi primari a loro volta legati alle particelle d’oro: sarà visibile solamente la seconda linea. 7 Serra/Casari 07 Bionanotecnologie (Mattu) 10/03/2022 Test Covid-19: ricerca degli anticorpi IgG e IgM del Covid-19 Si utilizza anche in questo caso una nanoparticella d’oro coniugata con un antigene specifico per la patologia, che sarà riconosciuto sia dagli anticorpi IgG sia dagli anticorpi IgM se il paziente ha oppure ha avuto il Covid-19. Si utilizza un campione di sangue e, se sono presenti gli anticorpi della patologia, essi si legheranno all’antigene specifico nella prima parte del test. In questo caso sono presenti tre linee: - linea M contenente anticorpi secondari anti-human-IgM che riconoscono in modo specifico tutti gli anticorpi IgM umani - linea G contenente anticorpi secondari anti-human-IgG che riconoscono in modo specifico tutti gli anticorpi IgG umani - linea C di controllo contenente anticorpi secondari anti-rabbit che riconoscono solamente gli anticorpi di un’altra specie (in questo caso conigli) in modo da non avere cross-interaction (reattività tra specie). Quindi, nel mix di reazione ci saranno: (i) la particella d’oro coniugata con l’antigene specifico per il Covid-19 che serve per capire se l’individuo ha gli anticorpi per il Covid-19, (ii) un’altra nanoparticella d’oro legata a un anticorpo di una specie differente (coniglio in questo caso specifico) che non reagirà con niente (perché specifico per gli anticorpi del coniglio) che serve per capire se il campione è stato trasportato fino alla fine del test e vedere dunque se il test è andato bene. Se così fosse, l’anticorpo IgG di coniglio verrebbe riconosciuto dal secondario specifico per gli anticorpi di coniglio e quindi le particelle d’oro vengono portate sulla linea di controllo, che diventa rossa. Se il soggetto presenta gli anticorpi IgM o IgG per il Covid-19, essi si legheranno all’antigene che a sua volta è legato alla nanoparticella d’oro. Proseguendo col test si giunge alla prima riga del test che riconosce tutti gli anticorpi IgM umani presenti nel plasma del paziente, tra cui anche quelli relativi al Covid-19, che sono gli unici legati alla nanoparticella d’oro. Se la prima linea è visibile vuol dire che l’individuo presenta gli anticorpi IgM relativi alla patologia. Lo stesso discordo vale 8 Serra/Casari 07 Bionanotecnologie (Mattu) 10/03/2022 per la seconda riga relativa agli IgG: se la seconda linea è visibile vuol dire che l’individuo presenta gli IgG relativi alla patologia. La terza riga invece dovrà sempre essere visibile in quanto gli anticorpi della specie differente non devono interagire nelle fasi precedenti e dovranno perciò arrivare a fine corsa (se l’ultima linea non è visibile significa che gli analiti non sono giunti alla fine del test che perciò non è da ritenersi valido). Risposte a delle domande fatte in chat Differenza tra i due test? La differenza principale tra i due test mostrati sta nella rilevazione. Nel test di gravidanza, si usa un anticorpo che riconosce un ormone, mentre nel test per il Covid-19 si vuole vedere se nel sangue c’è un anticorpo, dunque si vede se l’anticorpo riconosce il suo specifico antigene. Sostanzialmente, è diverso il metodo di riconoscimento: nel test di gravidanza, sulla nanoparticella d’oro si mette un anticorpo specifico per l’ormone che si cerca, nel test per il Covid-19, sulla nanoparticella d’oro viene messo l’antigene specifico per l’anticorpo che si cerca. Cambia la modalità di identificazione, ma cambia anche la modalità di lettura. Nel test di gravidanza, sulla prima linea che dice se il test è positivo avviene la reazione tra l’analita (ormone) e l’anticorpo. L'ormone si lega nella prima fascia larga e poi nella test line contenente l'anticorpo secondario. Nel test per il Covid-19, se c'è l'anticorpo, si lega all'antigene sulla particella e poi sulle linee M o G; il riconoscimento sarà specifico (umano o no) sul tipo di anticorpo presente sulla particella d'oro. Dopodiché, il principio sfruttato è lo stesso: si sfrutta la colorazione caratteristica delle nanoparticelle d'oro, che servono solo per far comparire la linea sul test. Questi due esempi sono concettualmente simili, il trucco nei test di rilevamento è capire cosa fare interagire con le particelle d’oro e cosa posizionare sulle righe del test in modo da avere risultati univoci tramite colorazione delle particelle d’oro. Perché non si può utilizzare un anticorpo umano per il controllo? Per il controllo si utilizza un anticorpo di una specie diversa con poca cross-reattività con gli anticorpi umani, perché se venisse utilizzato un anticorpo umano (IgG o IgM), si fermerebbe alle linee G o M a seconda dell'anticorpo che si è scelto, senza raggiungere la linea di controllo C. L'anticorpo della specie diversa, invece, è sicuro che non reagisca né sulla linea G né sulla linea M, e dunque giungerà sicuramente sulla linea C. 9 Riviello/Rafaiani 08 Bionanotecnologie (Mattu) 11/03/2022 Abbiamo visto le nanoparticelle d’oro nei sistemi di rilevazione in vitro; esse possono essere sfruttate grazie alla capacità di generare colore per produrre delle linee visibili sui test (esempi: test di gravidanza; test per la rilevazione degli anticorpi). TERAPIA FOTOTERMICA Un altro effetto che possiamo sfruttare dipende dal fenomeno della risonanza plasmonica di superficie: capacità di tali particelle di scaldarsi quando sono irraggiate da una radiazione incidente ad una specifica lunghezza d’onda (che manda gli elettroni in risonanza, dunque quella per la quale si ha il fenomeno di risonanza plasmonica di superficie). Irraggiando con la lunghezza d’onda che genera la risonanza plasmonica di superficie, gli elettroni inizieranno ad oscillare attorno alla particella (ovvero vanno in risonanza). L’eccitazione e il movimento degli elettroni, alla frequenza di risonanza, fanno scaldare la particella (ricordando che sono altamente conduttori). Si può, dunque, sfruttare la capacità di eccitare le particelle d’oro per generare calore, per ottenere la terapia termica dei tumori (come abbiamo visto per le particelle di ossidi di ferro). Dunque, si iniettano le nanoparticelle facendole accumulare nel tumore sfruttando l’effetto EPR; applicando un irraggiamento dall’esterno con una frequenza pari a quella che induce la risonanza plasmonica di superficie, le particelle assorbono la radiazione, portando gli elettroni in risonanza e si genera un innalzamento di temperatura localizzato che porta alla morte delle cellule (come abbiamo visto per le particelle magnetiche). Ciò che cambia rispetto alle particelle magnetiche è la modalità con cui si fa innalzare la temperatura: nel caso delle particelle magnetiche si applica un campo magnetico alternato dall’esterno; per le particelle d’oro si irraggia con una radiazione alla lunghezza d’onda che manda gli elettroni in risonanza. Con le nanoparticelle d’oro, modulandone forma e dimensioni correttamente, si può decidere a quale lunghezza d’onda far avvenire il fenomeno di risonanza plasmonica di superficie. Ricordiamo che passando dalle nanoparticelle sferiche ai rods, avviene il red shift, ovvero il picco dell’assorbimento si sposta verso il rosso e l’infrarosso. In tal modo si ha il vantaggio di poter eccitare le particelle d’oro all’interno degli organismi biologici poiché le radiazioni nell’infrarosso non vengono schermate dai tessuti. Dunque, dal punto di vista dell’applicazione della terapia fototermica, i rods e tutte le particelle che hanno la risonanza plasmonica nell’infrarosso, hanno delle prestazioni migliori. Riviello/Rafaiani 08 Bionanotecnologie (Mattu) 11/03/2022 Ad esempio, in questo grafico si confrontano delle sfere con i rods notando una differenza netta negli spettri di assorbimento: la sfera nell’infrarosso ha un picco di assorbimento bassissimo (in blu), a differenza dei rods che lo hanno molto alto (in rosso). Ciò permette di avere prestazioni elevate in terapia fototermica. Si nota che applicando una radiazione di circa 820 nm (infrarosso), i rods si scaldano arrivando fino a 50°C, mentre le sfere non subiscono alcun aumento di temperatura: tutte le configurazioni che permettono di shiftare l’assorbimento nell’infrarosso (come rods o stars) hanno le prestazioni migliori in terapia fototermica. Le particelle d’oro possono essere utilizzate anche in altre applicazioni, come ad esempio per il trattamento dell’acne, patologia legata alla proliferazione di batteri all’interno dei pori della pelle. Con questa terapia le nanoparticelle vengono fatte penetrare nei pori. Dall’esterno si applica un laser, inducendo un aumento controllato di temperatura a livello locale che uccide i batteri e normalizza i pori, permettendo di eliminare l’eccessiva proliferazione batterica alla base del problema dell’acne. Scegliendo le dimensioni delle particelle si può controllare la lunghezza d’onda a cui sono irraggiate e quindi il calore che esse sono in grado di generare cosicché si rimanga in condizioni mild (lievi), non si vuole un elevato aumento di temperatura. Sfruttando le particelle d’oro si può anche fare un’ipertermia dei tumori mild, in cui si decide si scaldare poco cosicché i vasi sanguigni diventino più permeabili, potendo intervenire dal punto di vista sistemico con un farmaco che passerà molto di più attraverso i pori aperti aumentando leggermente la temperatura locale. In conclusione, con le particelle d’oro, molto più che con le particelle magnetiche, si può controllare la temperatura che viene generata a livello locale, controllando la forma e la lunghezza d’onda a cui avviene la risonanza plasmonica di superficie. IMAGING FOTOACUSTICO Ultima applicazione delle nanoparticelle d’oro è con i sistemi di imaging. Anche la capacità di fare imaging dipende dalla capacità delle particelle di assorbire la radiazione incidente, cioè dalla risonanza plasmonica di superficie. Colpendo le nanoparticelle d’oro con una radiazione incidente, si mandano in risonanza degli elettroni: ciò genera anche un’onda acustica, rilevabile con un rilevatore ad ultrasuoni. Tramite il segnale fotoacustico si può fare imaging del punto in cui le particelle si sono localizzate. Riviello/Rafaiani 08 Bionanotecnologie (Mattu) 11/03/2022 Questo effetto fotoacustico non è caratteristico solo delle nanoparticelle d’oro ma anche di altre componenti di tessuti biologici. Uno tra questi è l’emoglobina: si vedono immagini fotoacustiche ottenute a livello dell’orecchio di un topo in cui è stato fatto un imaging di tipo fotoacustico. Questo tipo di imaging si può fare solo in strutture molto sottili, come in questo caso l’orecchio di topo, poiché tale tecnica ha limiti: la scarsa profondità di penetrazione della radiazione incidente e la scarsa capacità dell’onda acustica di lasciare i tessuti. Quindi se l’emoglobina si eccita nel visibile, si possono sfruttare le particelle d’oro eccitabili anche nell’infrarosso, così da ottenere una radiazione molto più penetrante, ottenendo imaging fotoacustico da tessuti più profondi. In questo modo si riesce ad avere la generazione dell’onda acustica più in profondità. Rimane però il problema della rilevazione dell’onda all’ esterno. L’imaging fotoacustico è infatti, al momento, limitato a tumori o strutture in profondità in piccoli animali oppure strutture superficiali. Il vantaggio di usare questa tecnica è che si ha un migliore contrasto: si riescono a vedere meglio tessuti diversi. Il fatto di poter avere il fenomeno di risonanza plasmonica di superficie nell’infrarosso permette di usare le particelle d’oro per fare imaging fotoacustico. Vediamo un esempio in cui si utilizzano dei nanorods (perché hanno la risonanza plasmonica dell’infrarosso) che vengono fatti accumulare per effetto parzialmente passivo o attivo in un tumore ricavato nel fianco sottocutaneo. I rods si accumulano; dall’esterno viene applicata radiazione nell’infrarosso; le nanoparticelle eccitate si scaldano e si ottiene l’effetto terapeutico ovvero l’ablazione del tumore (infatti si vede che il volume non aumenta). Allo stesso tempo si ha la generazione dell’onda acustica e con un rilevatore ad ultrasuoni si vede la morfologia dei vasi sanguigni: sfruttando le particelle d’oro si fa imaging fotoacustico della vascolarizzazione a livello della massa tumorale. Riviello/Rafaiani 08 Bionanotecnologie (Mattu) 11/03/2022 Scegliendo di eccitare in infrarosso non ci sono interferenze da parte dei tessuti e dei cromofori endogeni presenti nei tessuti (quali ad esempio l’emoglobina): è un vantaggio poiché si diventa insensibili agli artefatti introdotti dalla presenza di altri tessuti (l’infrarosso non viene assorbito dal pelo dell’animale, non risente dell’effetto del sangue). Riassumendo, i vantaggi delle particelle d’oro sono che: • • • • • Sono inerti e biocompatibili; Sono sospensioni colloidali (nanodimensionate) d’oro; È possibile modularne forma e dimensioni, dunque è possibile modulare l’effetto della risonanza plasmonica di superficie e di conseguenza la lunghezza d’onda di assorbimento della particella. Pertanto, si può modulare il colore della sospensione che sarà complementare rispetto alla lunghezza d’onda assorbita. Il colore si può sfruttare nei saggi in vitro. Generano calore, quindi si può fare terapia fototermica; Generano onda acustica rilevata da rilevatori ad ultrasuoni. Gli svantaggi sono che: • • Ad alte dosi possono far cambiare il colore della pelle facendola tendere al blu; Non sono biodegradabili nell’organismo: a lungo termine si possono avere problemi di accumulo e smaltimento di queste sostanze. NANOCODICI A BARRE Utilizzati per rilevare specifiche sostanze in un mix di sostanze, facendo riferimento ad un codice che le identifica in maniera univoca. Virtualmente si realizzano tanti codici diversi quante sono le sostanze da identificare. L’analogia si trova con i codici a barre dei prodotti da supermercato: volendo avere delle informazioni sul prodotto usando un lettore di codici a barre si capisce di quale prodotto si tratta. Anche qui, anziché cercare in maniera più laboriosa la sostanza specifica, si usano codici più facili da leggere, per identificarla e vedere se c’è. Essi possono essere: • • A base metallica: si sfruttano proprietà caratteristiche dei metalli per leggere il codice; A base di DNA: si utilizza la capacità delle molecole di DNA di assemblarsi in maniera precisa e ordinata in strutture come quelle rappresentate in figura, sfruttando il legame specifico dell’appaiamento tra basi complementari. Grazie a questa elevata selettività si possono costruire dei codici molto selettivi. Riviello/Rafaiani 08 Bionanotecnologie (Mattu) 11/03/2022 Alcuni esempi: NANOCODICI METALLICI Hanno forma cilindrica e sono costituiti dall’alternanza di metalli diversi, con caratteristiche e modi di riflettere la luce differenti: ad esempio oro e argento. Guardando la luce riflessa dal codice, i segmenti di argento hanno modalità diversa di rifletterla rispetto ai segmenti d’oro. Decidendo in che modo alternare argento e oro, si crea un codice diverso. Guardando il codice al microscopio si misura l’intensità della luce riflessa e si risale alla composizione del codice: nel grafico si nota un punto di massimo in cui c’è l’argento, un minimo più lungo che identifica due segmenti di oro successivi; segue nuovamente un massimo (argento) e poi un minimo (oro). Andando a fare la rilevazione in microscopia e guardando la luce riflessa, si può risalire alla composizione del codice, il quale è esprimibile con una sequenza di 1 e 0. Creato il codice bisogna metterlo sulla sostanza che deve identificare. Per farlo bisogna funzionalizzare il codice a barre metallico con, ad esempio, degli anticorpi specifici per l’analita (sostanza). Si utilizzerà un anticorpo selettivo per una sostanza, da mettere sul codice a barre. In questo esempio si hanno due codici che identificano gli analiti A e B. Si mettono sul codice degli anticorpi specifici rispettivamente per l’analita A e B. Se gli analiti sono in soluzione, verranno riconosciuti e si legheranno all’anticorpo presente sul nanocodice a barre. Per leggere il codice, invece, serve una sostanza che permetta di fare la rilevazione, per esempio, in fluorescenza. Per farlo si userà un altro anticorpo, uguale al precedente, non legato al codice a barre ma ad un fluoroforo. Questo anticorpo, posto nella soluzione dei codici a barre, si legherà all’analita a sua volta legato al codice dando la possibilità di leggere il codice in microscopia. In riflessione si leggono le sequenze di 1 e 0, riconoscendo aree più scure e più chiare. Nell’immagine si vedono diversi codici, ovvero diverse alternanze di oro e argento. In particolare, guardiamo quello identificato dal codice 011110. La stessa lettura viene fatta in fluorescenza: si vede che la fluorescenza è presente solo in corrispondenza di quel codice. Ciò significa che su tale codice è presente l’analita di interesse, identificato con l’anticorpo fluorescente. Adesso è noto che quel codice corrisponde ad una certa sostanza, ad esempio all’analita A, deducendo che nella soluzione c’è proprio l’analita A. Riviello/Rafaiani 08 Bionanotecnologie (Mattu) 11/03/2022 Dunque, il codice viene sempre rilevato in riflessione (perché è una proprietà dei metalli); invece si usa la fluorescenza per rilevare la presenza dell’analita sul codice. Ripetendo schematicamente: l’analita è in soluzione; nella stessa soluzione si mette il codice a barre che deve avere un anticorpo specifico per l’analita. STEP 1) L’analita sarà riconosciuto dall’anticorpo. STEP 2) si aggiunge l’anticorpo fluorescente che si legherà ai codici utili, poi letti in microscopia. In microscopia si vedranno: in riflessione i codici, in fluorescenza si vedranno solo i codici a cui l’anticorpo fluorescente si è legato (quindi nel caso in cui l’analita è in soluzione). Volendo si può leggere anche l’intensità di fluorescenza per capire in maniera semiquantitativa quali sono gli analiti più presenti in soluzione. Ad esempio, si vede che ci sono 3 codici che dovrebbero identificare 3 analiti diversi. In soluzione però ce ne sono solo 2. Leggendo in fluorescenza l’intensità su ogni codice, l’analita 3 che non c’è da quasi 0 fluorescenza. Inoltre, si nota che la fluorescenza dell’analita 2 è più intensa di quella dell’analita 1: si deduce che nel mix di sostanze c’è più 2 rispetto a 1. NANCODICI A BASE DI DNA Sono delle strutture molto organizzate e ordinate con forme ad albero (dendrimeri). Sfruttando il DNA come elemento costruttivo del codice ma il vero e proprio codice è in fluorescenza, legato alla presenza di fluorofori attaccati alle singole eliche di DNA. Si vedono le tre sequenze: la prima legata ad un fluoroforo verde; la seconda ad un fluoroforo rosso, la terza, che è un po’ più lunga, ad un’estremità non forma la doppia elica. Questa è disponibile all’ibridazione con una sequenza complementare: pertanto viene chiamata estremità adesiva (sticky ends) ovvero estremità a singola elica in cui può ancora avvenire l’ibridazione con una sequenza complementare. Sfruttando queste estremità sporgenti, si fanno formare le doppie eliche per ottenere una forma finale ottenuta dall’assemblaggio di più sequenze. Vediamo infatti nella forma finale una totalità di 4 fluorofori verdi (Green) (4G) e 1 fluoroforo rosso (Red) (1R). L’alternanza di fluorofori ci dà il codice (4G1R). Rimane inoltre un’estremità (probe o sonda) a cui si può attaccare la sostanza che si vuole identificare con il codice. Qui avverrà la reazione che porterà il codice ad attaccarsi alla struttura che deve identificare. Riviello/Rafaiani 08 Bionanotecnologie (Mattu) 11/03/2022 Riassumendo: i codici a DNA sono strutture ordinate di DNA a doppia elica che presentano un’alternanza di fluorofori il cui modo di distribuzione sulle doppie eliche mi dà il codice. Inoltre, ci sarà un punto in cui è possibile fare il riconoscimento dell’analita in modo da associarlo al codice. In questo esempio, si creano 5 codici a barre diversi, specifici per determinati analiti riconosciuti dalle varie sonde, variando l’alternanza dei fluorofori: 1) 4G1R; 2) 2G1R; 3) 1G1R; 4)2R1G; 5)4R1G. Facendo una lettura in fluorescenza si vedono le differenze di colore, distinguendo i codici l’uno dall’altro: Volendo fare un’identificazione, è necessaria una certa intensità della fluorescenza. Non basta che una singola sonda reagisca con una molecola del suo target (analita). È necessario amplificare il segnale. Una tecnica è quella di usare una microparticella polimerica su cui è immobilizzata una singola elica di DNA (sonda di cattura). Per legare la sonda di cattura alla particella si usa il legame streptavidinabiotina, con streptavidina sulla particella e biotina sulla sonda di cattura. La sonda di cattura è una singola elica di DNA complementare per l’analita che si cerca. Se il DNA target è in soluzione si legherà al probe di cattura. Così tante molecole di DNA target sono state avvicinate nello spazio. Bisogna riconoscerle: se il DNA target è sulla particella, si danno i codici legati al probe (singola elica di DNA complementare al target in un punto diverso rispetto a quello in cui è complementare la sonda di cattura). Quindi quando si dà il probe legato al codice, esso si legherà alla struttura intorno alla particella, localizzandoli tutti insieme nello spazio. In questo modo invece che vedere il segnale di un singolo codice, nello stesso punto dello spazio rilevo contemporaneamente i segnali di più codici, che hanno identificato la stessa cosa. Questi codici possono essere amplificati e visti in una risoluzione superiore, quindi sono visibili più chiaramente. Ad esempio, in questa immagine si identificano: il batterio Antrace, la Francisella, l’Ebola e la SARS, ovvero 4 DNA di patogeni. Questo può servire per vedere se sono presenti in un campione. Riviello/Rafaiani 08 Bionanotecnologie (Mattu) 11/03/2022 Il campione è messo a contatto con queste sfere; si inseriscono i vari codici attaccati al probe, si lasciano reagire e si vede se il batterio è eventualmente presente nel campione. Il codice è dunque un insieme delle strutture a Y, che si porta dietro un insieme di fluorofori. La sonda è attaccata a questo codice e identifica l’analita di interesse. Inoltre, il DNA deve preventivamente essere denaturato, cioè le eliche devono essere aperte cosicché possano formare doppia elica con le varie singole eliche usate come probe di cattura e probe di riconoscimento. Riassumendo: • • • • I nanocodici a barre sono codici che identificano in modo univoco una sostanza in un mix di sostanze. La lettura si basa su un riconoscimento specifico o sfruttando l’ibridazione tra sequenze complementari di DNA; Il codice è in fluorescenza o una combinazione fra fluorescenza e lettura ottica; Questi nanocodici a base di DNA, data la loro biocompatibilità, possono essere utilizzati per identificare se delle reazioni o delle sostanze vengono prodotte in vivo anche sulle cellule, non necessariamente in organismo vivente; quindi, sono usati per applicazioni in vitro, per monitorare reazioni a livello cellulare ma potenzialmente possono anche essere applicati in vivo su animali. Guidubaldi / Gandolfo 09 Bionanotecnologie (Mattu) 16/03/2022 NANOPARTICELLE POLIMERICHE Si è visto fino ad ora che le nanoparticelle inorganiche hanno delle proprietà particolari che derivano dal fatto che il materiale è stato formulato alla nanoscala, cioè ci sono proprietà fisiche dei materiali visti in precedenza che cambiano radicalmente solo perché si è passati dalla macro alla nanoscala. Si è visto, ad esempio, che i quantum dots quando sono formulati alla nanoscala hanno delle particolari capacità di emettere in fluorescenza, oppure si è visto che gli ossidi di ferro formulati alla nanoscala hanno proprietà super paramagnetiche. Questa cosa non avviene per i polimeri, per questo motivo le nanoparticelle polimeriche sono usate per trasportare farmaci, ma le loro caratteristiche fisiche e/o chimiche non variano anche se vengono formulate in nanoscala. Il polimero, ad esempio l’acido polilattico utilizzato per costruire uno scaffold grande è lo stesso acido polilattico che si utilizza per fare le nanoparticelle, e le sue proprietà non cambiano solo perché il costrutto che è stato realizzato è più piccolo, magari l’unica cosa che può cambiare sono le cinetiche di degradazione. Ciò che cambia quando si usano le nanoparticelle polimeriche per il trasporto dei farmaci è proprio il metodo con cui esse trasportano il farmaco stesso. Le nanoparticelle polimeriche sono quindi dei trasportatori di farmaco nano dimensionati in cui la nano dimensione viene sfruttata perché altera le cinetiche di biodistribuzione del farmaco, cioè altera in modo positivo le modalità con cui il farmaco viene trasportato rispetto al farmaco libero. Esempio: il farmaco libero si distribuisce in maniera uniforme su tutto l’organismo. Individuando il target, si vede che il farmaco libero spesso si distribuisce in modo non specifico in tutto l’organismo con poca selettività verso il bersaglio; quindi, ciò si traduce in scarso effetto terapeutico ed elevati effetti collaterali perché il farmaco va un po’ dappertutto e colpisce siti e organi che non sono il suo bersaglio. Usando invece le nanoparticelle per il trasporto del farmaco, quest’ultimo diventa più selettivo, cioè si ha una maggior efficienza nel distinguere il target e la distribuzione nei siti non di interesse è in qualche modo controllata. Agisce di più sul target e in maniera minore a livello sistemico, dove si può vedere che l’accumulo, non voluto, si ha principalmente nei linfonodi e nel fegato. Si ha quindi una maggior efficacia terapeutica e una diminuzione degli effetti collaterali. Quella indicata con la freccia verde nella figura superiore è la “nanoparticella di prima generazione”: essa presenta il PEG in superficie; quindi, è una particella designata per circolare nell’organismo senza venire riconosciuta (il PEG serve per questo) però non ha alcuna capacità di targeting; quindi, si accumula in modo passivo tendendo ad accumularsi in siti non bersaglio (tra cui linfonodi e fegato). Hanno comunque una maggior selettività rispetto al farmaco da solo, quindi maggior effetto terapeutico e minori effetti collaterali. Se poi si passa a particelle più complesse, cioè quelle di seconda e terza generazione, ovvero quelle che fanno targeting, si riesce ad essere ancora più 1 Guidubaldi / Gandolfo 09 Bionanotecnologie (Mattu) 16/03/2022 selettivi nell’accumulo sul bersaglio e ridurre ancora di più gli accumuli nei siti non specifici. Quindi le particelle polimeriche opportunamente progettate permettono di migliorare l’efficacia terapeutica del farmaco e minimizzare gli effetti collaterali. Vantaggi delle particelle polimeriche: anche le particelle inorganiche possono trasportare farmaci, però tendenzialmente in esse il farmaco deve essere legato in superficie, mentre nelle particelle polimeriche il farmaco può essere messo all’interno della particella stessa, ciò permette di accumulare maggior quantità di farmaco e inoltre, essendo un rilascio di tipo diffusivo, è un rilascio che può essere modulato nel tempo e quindi avvenire più lentamente. Cioè, rispetto alle particelle inorganiche, con quelle polimeriche si può controllare meglio il rilascio del farmaco nel tempo e nello spazio. Un altro vantaggio è che se opportunamente stabilizzate sono stabili, cioè rimangono sospese senza aggregarsi e senza precipitare, in mezzi acquosi e quindi possono essere iniettate molto più facilmente rispetto alle particelle inorganiche. Il problema delle particelle polimeriche è quello di ottenerle tutte delle stesse dimensioni, cioè dovrebbero esse monodisperse in dimensione (tutte della stessa dimensione), però con queste particelle è difficile avere un controllo corretto delle dimensioni, si riesce molto meglio con le particelle inorganiche. Però, altro vantaggio delle particelle polimeriche è che sono biocompatibili e biodegradabili; dunque, non danno fenomeno di accumulo a lungo termine. Inoltre, essendo costituite da polimeri, sono molto più facili da modificare in superficie rispetto alle particelle inorganiche. Ci sono anche tanti gruppi funzionali disponibili sulla superficie per il legame con i ligandi. POLYMER NANOPARTICLES: PREPRATION METHODS Quando si parla di particelle polimeriche si fanno diverse distinzioni. Si possono classificare in base al materiale che li costituisce: si può ad esempio partire da polimeri preformati. Nel caso si vogliano fare particelle di acido polilattico, PLA, si parte da un PLA già pronto; quindi, si ha già il polimero e semplicemente lo si forma in forma di nanoparticella di PLA che incapsula il farmaco. I polimeri preformati possono essere di sintesi 2 Guidubaldi / Gandolfo 09 Bionanotecnologie (Mattu) 16/03/2022 (come, ad esempio, il PLA, l’acido polilattico coglicolico, PLGA, o il PCL), oppure di origine naturale (es. collagene o gelatina). A seconda che i polimeri siano sintetici o naturali cambiano i metodi con cui si forma la particella. Tipicamente per i polimeri sintetici i metodi sono emulsione o precipitazione, mentre per quelli naturali i metodi in genere coinvolgono il cross-linking. Si possono poi avere particelle lipidiche (es. liposomi) che sono particelle cave, quindi delle capsule, oppure particelle solide lipidiche che sono invece particelle massive. Infine, si può anche partire dai monomeri facendoli polimerizzare in situ, cioè invece di partire dal polimero già fatto lo si ottiene in situ attraverso una reazione di polimerizzazione tra i vari monomeri, che restituisce il polimero già in forma di nanoparticelle. SOLID NANOPARTICLES FROM PRE-FORMED POLYMERS I metodi che si possono usare per ottenere nanoparticelle polimeriche sono principalmente: • • • emulsione, nanoprecipitazione, salting out. Con le emulsioni si possono fare anche le particelle solide lipidiche. 3 Guidubaldi / Gandolfo 09 Bionanotecnologie (Mattu) 16/03/2022 EMULSION-BASED METHODS: È il metodo più utilizzato per preparare le nanoparticelle nonché il primo ad essere stato utilizzato e quindi quello più ottimizzato. Una emulsione si forma tra due liquidi, detti “fasi”, immiscibili, come ad esempio l’olio e l’acqua, che non si mescolano fra loro ma l’olio nell’acqua rimane in superficie; quindi, c’è una netta separazione delle due fasi. Se si applica energia meccanica, per esempio agitando la soluzione, succede che si formano delle gocce di olio dentro l’acqua, sospese in acqua (non sciolte). Dunque, ciò che succede è che quando agiamo meccanicamente una fase si sospende dentro l’altra, quindi si ottiene una emulsione di una fase dentro l’altra. Quindi una emulsione è una sospensione di una fase dentro un’altra fase immiscibile. L’emulsionante è una sostanza che aiuta e stabilizza l’emulsione che si formerà. Quando andiamo ad agitare l’olio nell’acqua si formano delle gocce di olio in acqua, dopo un po' che lasciamo riposare le sostanze, le gocce di olio tendono ad unirsi fino a tornare alla configurazione iniziale in cui l’acqua e l’olio sono separati, cioè l’emulsione perde di stabilità e torna alla sua condizione iniziale. Se invece si aggiunge l’emulsionante esso si pone all’interfaccia tra le due fasi ed impedisce o rallenta la coalescenza tra le gocce della fase dispersa e quindi impedisce o rallenta il rientro alla condizione iniziale. L’emulsionante tipicamente è un surfattante, cioè una molecola anfifilica che è costituita da due porzioni, una affine ad una fase (acqua) e l’altra affine all’altra fase (olio). Quindi la molecola di surfattante si dispone all’interfaccia tra le due fasi proprio perché ha porzioni affini alle due diverse fasi. Quando si ha più acqua che olio, le gocce d’olio si disperdono in acqua, viceversa si può avere anche l’emulsione di acqua in olio, in cui si hanno le gocce d’acqua che si disperdono nell’olio, perché quest’ultimo è maggiore dell’acqua. L’unico caso in cui si usa quest’ultimo tipo di emulsione è per preparare le “doppie emulsioni”. Si parla infatti di “singola emulsione” in cui si effettua una sola volta l’agitazione meccanica, e quindi si può creare l’emulsione olio in acqua oppure acqua in olio; 4 Guidubaldi / Gandolfo 09 Bionanotecnologie (Mattu) 16/03/2022 O/W SINGLE EMULSION METHOD Consideriamo l’emulsione olio in acqua. È necessario avere un solvente non miscibile con l’acqua (come ad esempio il diclorometano DCM, tetraidrofurano THF e acetato di etile, che ha ridotta tossicità). Dentro al solvente si deve poter sciogliere il polimero e il farmaco; quindi, polimero e farmaco devono essere solubili nello stesso solvente. Inoltre, polimero e farmaco devono essere insolubili nel non-solvente, ovvero in acqua. I polimeri in genere sono poliesteri biodegradabili e i farmaci in genere sono molecole idrofobiche (è infatti una tecnica scarsamente efficiente con molecole idrofiliche). Come si prepara l’emulsione? Si sciolgono il polimero e il farmaco nel solvente comune, vengono poi aggiunti in acqua; dopo di che si agita così da far formare l’emulsione, cioè gocce di solvente si disperdono in acqua. Nelle gocce di solvente rimane il farmaco in quanto esso non è solubile in acqua, lo stesso vale per il polimero, che non è solubile in acqua e tende quindi a rimanere nel solvente. Perciò si formeranno in acqua delle gocce di solvente dentro le quali si trova disperso il polimero e il farmaco. In acqua si deve anche aggiungere il surfattante, le cui molecole si vanno a disporre sulla superficie della particella che si sta formando andando a stabilizzare le gocce di solvente. In questa tecnica è importante che l’emulsionante aumenti un po' la viscosità della soluzione così da impedire che le particelle si aggreghino. Quindi più surfattante viene inserito, più la soluzione diventa viscosa e quindi le particelle rimangono di piccole dimensioni, però diventa anche più difficile eliminare il surfattante residuo. Inoltre, bisogna tenere presente che agitando la soluzione si applica energia meccanica e ciò può danneggiare il farmaco rompendone le particelle con conseguente generazione di calore e le temperature alte possono danneggiare a loro volta il farmaco. 5 Guidubaldi / Gandolfo 09 Bionanotecnologie (Mattu) 16/03/2022 Una volta creata l’emulsione si deve riuscire ad eliminare il solvente facendolo evaporare e questo si fa controllando temperatura e pressione, in particolare abbassando la pressione e/o aumentando la temperatura del sistema si forza l’evaporazione del solvente. Alla fine, il polimero, non essendo solubile in acqua, man mano che il solvente che lo tendeva a far rimanere disciolto evapora, tenderà a solidificare. Il farmaco, quindi, rimarrà intrappolato dentro la matrice polimerica che sta solidificando e la parte del surfattante, che è affine con il polimero, tenderà a rimanere intrappolata dentro la matrice, mentre le code, quelle affine con l’acqua, rimangono all’esterno stabilizzando le particelle; quindi, alla fine si ha una sospensione delle particelle solide in acqua stabilizzate dal surfattante. Infine, si devono raccogliere le particelle dalla sospensione e in genere si fa per centrifugazione cercando così anche di rimuovere, tramite lavaggi con acqua o soluzione fisiologica, il surfattante residuo. Un surfattante comune è il PVA (poli vinil alcol), il quale è però difficile da rimuovere perché è poco solubile in acqua e quindi si rischia di avere molto surfattante residuo come risultato di questa tecnica. Vantaggi di questa tecnica: - essendo la prima tecnica ad essere nata è molto utilizzata perché è stata ottimizzata negli anni; - è facile da scalare, cioè se si prepara in laboratorio in piccola scala si riesce abbastanza bene ad aumentare i volumi mantenendo gli stessi risultati, cioè si riesce a passare facilmente dalla scala di laboratorio alla scala industriale, è cioè facile aumentare le rese, la produzione di queste particelle scalando volumi e concentrazioni rispetto agli altri metodi; - le dimensioni si possono controllare modulando tipo e concentrazione di emulsionante e intensità della forza di agitazione. A seconda dell’emulsionante che viene scelto, a seconda della concentrazione e di quanto viene agitata la soluzione, si riesce a fare le particelle entro un certo range dimensionale. Ovviamente per ogni metodo bisogna fare una serie di ottimizzazioni. 6 Guidubaldi / Gandolfo 09 Bionanotecnologie (Mattu) 16/03/2022 Problemi di questa tecnica: - è difficile rimuovere i surfattanti perché è necessario usare surfattanti che aumentano la viscosità della soluzione; quindi, non molto solubili in acqua; - i solventi utilizzati sono potenzialmente tossici, come il diclorometano; - applicando sforzi meccanici si potrebbe danneggiare il principio attivo; - il metodo è applicabile solo ai farmaci solubili nei soventi organici, non va bene per quelli solubili in acqua. Nelle gocce di solvente rimangono il polimero e il farmaco, perché questi sono solubili in quel solvente e non solubili in acqua; se invece si utilizza un farmaco solubile in acqua, niente impedirà al farmaco di lasciare le particelle e le gocce di solvente e andare verso l’acqua. Ecco perché questo metodo non è adatto per i farmaci solubili in acqua. DOPPIA EMULSIONE In una doppia emulsione si hanno più di due fasi. Le doppie emulsioni quindi possono essere: • • acqua in olio in acqua, olio in acqua in olio. A noi interessa la prima perché è questa ad essere adatta alle applicazioni biologiche. Si hanno quindi tre fasi: - una fase interna, che nell’emulsione ‘acqua in olio in acqua’ è l’acqua, - una fase dispersa ovvero l’olio, che sarebbe il solvente che contiene il polimero e un emulsionante - una fase continua, o fase esterna, cioè l’acqua che contiene a sua volta un altro emulsionante. Quindi ‘acqua in olio ’ è la prima emulsione che si forma, la quale viene di nuovo emulsionata in acqua. Grazie alla doppia emulsione si possono incapsulare anche farmaci solubili in acqua (cosa non possibile con la singola emulsione). 7 Guidubaldi / Gandolfo 09 Bionanotecnologie (Mattu) 16/03/2022 Come si fa? Si forma innanzitutto l’emulsione primaria, cioè quella acqua in olio (W/O). Quindi si usa la fase interna, cioè la fase acquosa nella quale si mette il farmaco solubile in acqua; lo si aggiunge al solvente (olio) che a sua volta può contenere un surfattante e si applica agitazione meccanica, così facendo le gocce d’acqua si disperdono nel solvente: nelle gocce è presente il farmaco, mentre nel solvente è presente il surfattante che stabilizza le gocce d’acqua nel solvente. Si è così formata l’emulsione primaria (in cui il farmaco è sciolto in acqua, si può dire che l’acqua è il solvente del farmaco, mentre il polimero e il surfattante sono sciolti nel solvente organico, ovvero nell’olio). A questo punto questa prima emulsione viene messa in acqua, si emulsiona di nuovo (cioè si agita) e si forma l’emulsione secondaria, nella quale il solvente che contiene le gocce d’acqua con il farmaco, appena tocca l’acqua sotto agitazione va a formare delle gocce. Tali gocce di solvente contengono all’interno le goccioline di acqua che vengono dall’emulsione primaria e che quindi hanno all’interno il farmaco idrosolubile. Nelle gocce di solvente è presente però anche il polimero ancora sciolto. In acqua è presente, come già detto, anche un altro surfattante; quindi, sulla superficie delle particelle che si stanno formando c’è anche il surfattante che le stabilizza. Alla fine, quando viene fatto evaporare il solvente (abbassando la pressione e/o aumentando la temperatura), esso se ne va e il polimero, non essendo solubile in acqua, solidifica diventando quindi una matrice solida con sulla matrice ancora un po' di surfattante e con all’interno il farmaco idrosolubile che è rimasto intrappolato. [il polimero solidifica perché non è solubile all’acqua, quindi quando il solvente evapora e il polimero entra in contatto con le gocce d’acqua solidifica nella forma che gli era stata assegnata]. 8 Guidubaldi / Gandolfo 09 Bionanotecnologie (Mattu) 16/03/2022 Vantaggi e svantaggi di questa tecnica - permette di incapsulare molecole idrosolubili (come peptidi o altre biomolecole), questo è un vantaggio perché si è visto che con la singola emulsione non si può fare; - si possono controllare le dimensioni modulando la concentrazione dell’emulsionante nella fase interna ed esterna, però è difficile rimuovere i surfattanti, soprattutto quelli nel solvente organico che rimangono intrappolati nelle gocce; - i solventi sono potenzialmente tossici, - si deve anche in questo caso controllare il calore che si genera durante l’agitazione ed in particolare in questa tecnica è ancora più importante controllarlo rispetto alla tecnica precedente perché se si vogliono intrappolare i peptidi o delle biomolecole esse sono più sensibili alle alte temperature rispetto ai farmaci sintetici; quindi, le alte temperature rischiano di danneggiare il principio attivo del farmaco che si vuole incapsulare. 9 De Iasi/Di Caccamo 10 Bionanotecnologie (Mattu) 17/03/2022 Metodo dello spostamento del solvente o della nanoprecipitazione Metodo più facile e veloce rispetto a quello delle emulsioni e si differenzia grazie all’utilizzo di un solvente miscibile con l’acqua. Si hanno sempre due fasi: 1. Solvente che contiene il polimero ed eventualmente il farmaco; 2. Acqua con l’emulsionante. L’emulsionante aggiunto, in questo caso, è un tensioattivo (sapone) blando, ovvero non necessita di una sostanza per aumentare la viscosità della soluzione, per cui facilmente rimovibile. Diversamente dalle emulsioni, non c’è bisogno di stabilizzare la goccia, l’interesse è quello che le gocce siano sospese. Aggiungiamo l’acetone, il polimero ed il farmaco in acqua, contenente l’emulsionante. Il farmaco ed il polimero devono essere solubili nello stesso solvente e non solubili nel non solvente (acqua), se no la tecnica non risulta applicabile. Per cui la soluzione polimero e farmaco, viene aggiunta un po’ alla volta all’acqua. Quando la prima goccia di acetone tocca l’acqua: 1. Il surfattante presente nell’acqua andrà a disporsi all’interfaccia in modo da stabilizzare la goccia; 2. Il solvente, essendo miscibile con l’acqua, tenderà a lasciare la goccia per mescolarsi all’acqua; 3. Alla sua riduzione, il polimero tende a solidificare intrappolando il farmaco al suo interno. L’acetone sarà intanto giunto sulla superficie iniziando l’evaporazione, che può avvenire sia naturalmente o tramite induzione, abbassando leggermente la pressione. Si formano, istantaneamente, nanoparticelle solide stabilizzate dal surfattante, si fa evaporare completamente il solvente, raccogliendo infine le particelle per centrifugazione. Svantaggi Vantaggi Il solvente deve essere miscibile con l’acqua e la Nanoparticelle monodisperse e di piccole sua scelta è molto limitata dimensioni (<200nm) Si possono utilizzare solo farmaci Idrofobici Metodo istantaneo Non è possibile concentrare troppo le soluzioni, Non si applicano sforzi durante la formazione ovvero non si possono aumentare le dosi di di particelle, per cui il farmaco e le particelle farmaco e polimero oltre un certo livello, non vengono danneggiate 1 De Iasi/Di Caccamo 10 Bionanotecnologie (Mattu) 17/03/2022 altrimenti la diffusione del solvente verrebbe ostacolata Surfattanti facilmente rimovibili e metodo istantaneo Metodo difficile da scalare, ovvero si lavora bene solo su piccole scale come mL e mg Solventi facilmente evaporabili e non tossici Metodo del salting out Metodo ibrido dove vengono utilizzati due solventi, miscibili tra loro: un generico solvente, contenente polimero e farmaco, ed acqua, eventualmente contenente il surfattante ed un agente di salting-out, ovvero un elettrolita (genericamente cloruro di magnesio). Ad una certa concentrazione dell’elettrolita in acqua, i due solventi non risultano essere più miscibili, per cui è possibile l’emulsione. Una volta ottenuta l’emulsione viene aggiunta acqua, allora l’elettrolita diminuisce, facendo sì che diminuisca anche la sua concentrazione, perdendo l’effetto di salting-out. L’acqua ed il solvente diventano nuovamente miscibili, per cui, il solvente lascerà le particelle spontaneamente muovendosi verso l’acqua ed evaporando. In questo mondo si ottiene il vantaggio delle emulsioni, quale la scalabilità, e l’assenza di applicazioni di forti stress per l’evaporazione, vantaggio della nanoprecipitazione. Il metodo risulta essere limitato dalla scelta del solvente, dai farmaci che devono essere unicamente solubili nel solvente e dalla scelta dell’agente di salting-out, che deve essere tale da inibire della miscibilità tra solventi. Metodo del cross linking o di gelificazione ionica 2 De Iasi/Di Caccamo 10 Bionanotecnologie (Mattu) 17/03/2022 Vantaggioso perché si può lavorare in acqua, nella quale si aggiunge l’agente di cross linking ed il polimero + farmaco, richiedendo una blanda agitazione magnetica. Le particelle si formano spontaneamente in soluzione grazie all’agente aggiunto, che di solito è un elettrolita, ovvero uno ione, di carica opposta a quella presente sul polimero; per questo si definisce cross linking ionico, poiché viene sfruttata l’interazione elettrostatica tra l’agente e le catene polimeriche. È, inoltre, biocompatibile. Lavorando in acqua è possibile incapsulare farmaci solubili in acqua, principalmente biomolecole o proteine, ovvero molecole sensibili alla degradazione. In genere è utilizzato per polimeri di origini naturale, quali il Chitosano e l’Alginato, ma funziona con tutti i gruppi di polimeri in grado di assumere una carica netta. Si possono non utilizzare surfattanti, ma (limite del metodo) il polimero ed il farmaco devono essere solubili nel solvente, tipicamente in acqua. Si ha quindi una soluzione con polimero e farmaco e una con l’agente di cross-linking. Solitamente l’agente di cross-linking è un elettrolita/ione di carica opposta a quella sul polimero, per questo è detto crosslinking ionico perché si sfrutta l’interazione tra polimero e agente di cross-linking. Nella soluzione contenente cross-linking, quindi, viene gocciolato polimero con il farmaco ed immediatamente l’elettrolita (l’agente) andrà ad interporsi tra le catene creando delle reticolazioni e stabilizzando la struttura della goccia. Si genera una matrice densa che è in grado di intrappolare il farmaco. Rigorosamente i polimeri ottenuti sono rappresentabili meglio con dei gel che con dei solidi, per questo il metodo prende anche il nome di gelificazione ionotropica. • • Chitosano, polimero che presenta delle cariche positive, gruppi amminici NH2, che in specifiche condizioni di pH si protonano per diventare NH3+. Per cross linkare il Chitosano, si utilizza uno ione di carica opposta, in genere il Tripolifosfato (TPP), ovvero un polianione. Il TPP si interpone tra le due catene di Chitosano generando ponti, grazie all’interazione elettrostatica tra il gruppo amminico protonato e la sua carica negativa. Allora, gocciolando il composto di Chitosano, acqua e farmaco in acqua contenente TPP, quest’ultimo blocca la struttura nella forma con cui la goccia giunge in acqua. Si ottiene, così, un polimero reticolato simile ad un gel. Si può svolgere anche il processo inverso, facendo gocciolare l’acqua nel Chitosano, ma generalmente non si utilizza. N.B. Si lavora sempre in condizioni in cui le cariche vengono mantenute. Alginato, polimero le cui catene presentano gruppi carbossilici, presentando, così, carica netta negativa; Perciò, vengono utilizzati ioni calcio per crosslinkare le sue molecole. Gocciolando la soluzione di alginato nella soluzione contenente ioni calcio, si formeranno le strutture reticolate (figura b) di forma simil sferica, ovvero particelle di alginato di carica negativa, poiché in superficie non viene neutralizzato nulla. Le cariche negative superficiali possono essere sfruttate, quindi, per rivestire la struttura con un altro polimero di carica 3 De Iasi/Di Caccamo 10 Bionanotecnologie (Mattu) 17/03/2022 positiva, come ad esempio la Polilisina (figura c), che va appunto a disporsi sulla superficie delle particelle, stabilizzandole ulteriormente. Svantaggi Vantaggi Scelta limitata di farmaci, che devono essere Lavorazione con polimeri naturali idrosolubili, e di polimeri, che devono presentare gruppi con carica netta Lavorazione con unico solvente Devono essere soddisfatte specifiche condizioni di pH, per mantenere l’equilibrio tra le cariche e non Lavorazione con nessun surfattate destabilizzare i cross-link Il cross-link ionico non di tipo chimico, perciò non si riscontrano problemi di tossicità o variazione di temperatura Difficilecontrollare le dimensioni ; Poichè sono possibili i fenomeni di aggregazione, crosslinkando varie particelle insieme Si possono incapsulare farmaci idrosolubili e molecole sensibili alla degradazione Domanda sul gel: Si parla di gel perché gocciolando in acqua il polimero, quest’ultimo al contatto subisce l’azione dell’agente di cross-linking iniziando la reticolazione. Le particelle saranno quindi costituite da maglie polimeriche reticolate da legami di tipo ionico, che permettono di avere una struttura stabile, all’interno della quale resta bloccata l’acqua. Definizione: polimero reticolato in grado di assorbire acqua. Riassumendo: Tutti questi metodi sono validi per quanto riguarda nanoparticelle ottenute da polimeri preformati di origine sintetica o naturale. Il metodo viene scelto in funzione del tipo di polimero e/o sulla natura del principio attivo del farmaco da incapsulare. I vari metodi si basano sull’applicazione di stress e/o sulla precipitazione/diffusione ed emulsione. A seconda del metodo utilizzato è possibile incapsulare sia farmaci idrofilici che idrofobici. 4 De Iasi/Di Caccamo 10 Bionanotecnologie (Mattu) 17/03/2022 Nanoparticelle lipidiche Nanoparticelle a base lipidica ma presentano alcuni vantaggi tipici delle particelle polimeriche, come ad esempio la possibilità di utilizzare sui fosfolipidi posso usare una serie di gruppi funzionali e molte molecole diverse sui quali a loro volta posso graffare diversi ligandi o altre molecole come il PEG, rendendo possibili svariate modifiche chimiche. Si ottengono tramite lipidi ed in base al lipide scelto per la realizzazione, vengono divise in: • Liposomi, strutture sferiche cave, circondate da uno o più doppi strati lipidici e sono il primo tipo di nanoparticelle ad essere stato sviluppato. La parte centrale è generalmente composta da acqua per cui è possibile inserire all’interno farmaci idrofilici, mentre il doppio strato lipidico è lipofilo, per cui possono essere incapsulati farmaci idrofobici. La composizione del doppio strato è molto simile a quella della membrana cellulare e per questo motivo, i liposomi sono in grado di fondersi facilmente con le membrane cellulari. La superficie è facilmente modificabile ed i componenti principali sono i fosfolipidi, molecole che costituiscono il doppio strato, ed il colesterolo. I fosfolipidi sono molecole anfifiliche, costituite da una testa polare contenente il gruppo fosfato, idrofila e due code apolari (idrofobe) di acidi grassi. Mettendoli in acqua tenderanno, quindi, a massimizzare il contatto con l’acqua delle teste, minimizzando il contatto con l’acqua delle code, formando la struttura del doppio 5 De Iasi/Di Caccamo 10 Bionanotecnologie (Mattu) 17/03/2022 strato lipidico: le code di una molecola si portano a contatto con le code delle altre molecole. Sagitata meccanicamente la soluzione lipidica, si ripiega formando una sfera, assumendo la configurazione di minore energia. Il colesterolo, invece, serve a fluidificare la membrana lipidica. Essendo una molecola idrofobica, si interpone quasi totalmente all’interno del doppio strato lipidico tra le catene, ad eccezione di una porzione polare che tenderà a rimanere in prossimità delle teste, impedendo, così, la formazione di legami ad idrogeno (deboli) tra le code e rendendo la membrana più deformabile e fluida. I liposomi si classificano in: Liposomi con un singolo doppio strato lipidico, vescicole unilamellari, ulteriormente classificate in funzione delle loro dimensioni (GIGA guv- LARGE luv - MEDIUM muv - SMALL suv). Liposomi con più strati lipidici e prendono il nome di vescicole multilamellari, MLV, (se strati concentrici, struttura a cipolla) o multi vescicolari, MVV, anche note come 6 De Iasi/Di Caccamo 10 Bionanotecnologie (Mattu) 17/03/2022 oligovescicolare o oligolamellare, OLV, (diverse dimensioni di doppio strato lipidico tutte inglobate in un doppio strato più grande). Le strutture multilamellari o multivescicolari si ottengono più facilmente in modo spontaneo ed è possibile trasformarle in vescicole unilamellari sottoponendo i lipidi a processi termici o di estrusione, ovvero di modifica meccanica della struttura. La presenza del colesterolo, che rende la membrana più fluida, favorisce questo processo. Liposomi unilamellari hanno spessore del doppio strato lipidico pari a 5/6 nm, per cui volendo incapsulare farmaci idrofobici, le loro dimensioni devono essere ridotte. Perciò, a parità di diametro tra una LUV ed un MLV, quest’ultima configurazione permette un incapsulamento più alto, avendo più spazio a disposizione tra le diverse membrane. Tra i metodi per preparare liposomi ricordiamo il più comune: Metodo dell’idratazione del film Si sciolgono i lipidi in un solvente organico, genericamente cloroformio, in cui è presente il farmaco idrofobico da incapsulare. Una volta evaporato il solvente, si ottiene un film lipidico secco, con farmaco, che aderisce al pallone di reazione; attraverso un trattamento termico, diminuendo la temperatura a 4 °C, si rilassa la struttura lipidica, favorendo l’autoassemblamento, per poi aggiungere acqua. Se il farmaco da incapsulare è idrofilico, si ripete il procedimento in assenza di farmaco aggiungendolo al film successivamente, insieme all’acqua. L’acqua idrata i lipidi, strato dopo strato, facendo sì che questi si assemblino formando doppi strati lipidici e generando una serie di lamelle sovrapposte. Agitando la soluzione, i doppi strati si ripiegano in strutture sferiche, formando più facilmente vescicole oligolamellari. Attraverso cicli di congelamento e scongelamento della soluzione lipidica ottenuta oppure estrudendola attraverso un foro/filtro è possibile ottenere strutture unilamellari. I lipidi, sottoposti ad un abbassamento repentino della temperatura, subiscono dei cambiamenti di fase, diventando più o meno cristallini e portando a rottura alcuni doppi strati lipidici. Gli strati aperti, scongelando poi la soluzione, si ripiegheranno per formare altre strutture più piccole e staccate tra loro. Attraverso il trattamento meccanico, avviene lo stesso meccanismo di rottura delle lamelle: spingendo meccanicamente le MLV attraverso il filtro 7 De Iasi/Di Caccamo 10 Bionanotecnologie (Mattu) 17/03/2022 si avrà l’apertura di alcuni strati che all’uscita si ripiegheranno per formare strutture a singola lamella più piccole. Iterando i due processi si forza la rottura delle strutture grandi e complesse a favore della formazione di strutture più piccole e semplici. Quando un farmaco idrofilico giunge sul film, esso si disporrà solo sugli strati più esterni, non riuscendo a raggiungere quelli più profondi. Per questo motivo, nella formazione dei liposomi, solo una piccola parte riuscirà ad essere incapsulata con l’agitazione, mentre la gran parte resterà all’esterno. Allora estrudendo più volte la soluzione, è possibile incapsulare il restante farmaco libero. Per controllare le dimensioni finali si può scegliere opportunamente le dimensioni del filtro. Spesso i due meccanismi vengono svolti in modo combinato. Tra i farmaci ottenuti con formulazione liposomiale, ricordiamo il Doxil, formulazione liposomiale della Doxorubicina, ovvero un liposoma unilamellare nella cui zona cava è presente il farmaco Doxorubicina, idrofilico. La sua superficie contiene PEG per favorire la circolazione in vivo. È la prima nano medicina ad essere stata approvata ad uso umano, nel 1995. La prima versione di Doxil ad essere testata, con nome OLV-DOX, rappresentava una formulazione oligolamellare di Doxorubicina, ottenuta tramite tecnica di idratazione del film. Questa configurazione, somministrata nei trial clinici, non ha generato nessun miglioramento rispetto alla Doxorubicina libera, in quanto molto farmaco era al di fuori del liposoma. Come si vede dal grafico il livello di farmaco libero, curva più bassa, diminuisce velocemente e ciò è dovuto al fatto che il farmaco, non presente nei liposomi, viene espulso dal sangue velocemente. Inoltre, generava un accumulo non specifico, principalmente nel fegato e nella milza, organi deputati allo smaltimento delle nanoparticelle dalla circolazione. Per risolvere il problema della scarsa selettività dei liposomi e della presenza di farmaco all’esterno di essi, venne ottimizzata la formulazione di preparazione della Doxorubicina, arrivando alla configurazione oggi utilizzata. 8 De Iasi/Di Caccamo 10 Bionanotecnologie (Mattu) 17/03/2022 -Per risolvere l’accumulo, vennero introdotte delle modifiche superficiali con polimeri idrofilici, come il PEG, coniando per la prima volta la parola STEALTH per le nanoparticelle: il nome è dovuto alla loro capacità di circolare nel sangue ritardando il riconoscimento da parte del sistema immunitario. -Mentre, per correggere il poco farmaco incapsulato nella struttura oligolamellare, si è passati alla struttura unilamellare attraverso cicli di estrusione. Queste modifiche hanno portato ad una nanoparticella con alta efficacia di incapsulazione dovuta alla struttura unilamellare e con maggiore selettività verso il tumore, rispetto alla doxorubicina libera. L’immagine mostra l’alto accumulo nelle masse tumorali di Doxil, somministrato per via endovenosa. Svantaggi Vantaggi Poco stabilità in vivo, molto probabile la fusione Composizione simile a quella della membrana cellulare tra più liposomi 9 De Iasi/Di Caccamo 10 Bionanotecnologie (Mattu) 17/03/2022 Probabile apertura in certe condizioni di pH o di concentrazioni saline Variabilità della struttura e facile inserimento de PEG Probabile apertura in certe condizioni di concentrazioni saline Utilizzo di svariati lipidi Scarsa stabilità a lungo termine in acqua, per questo motivo vengono preparati poco prima dell’iniezione. Capacitò di incapsulare farmaci idrofobici ed idrofilici • Nanoparticelle solide lipidiche Nanoparticelle dotate di struttura massiva, nate per risolvere la scarsa stabilità dei liposomi, godono dei vantaggi delle particelle polimeriche, mantenendo la soluzione a base di fosfolipidi. Utilizzando lipidi solidi a temperatura ambiente si ha una particella massiva, con alta efficacia di incapsulamento dei farmaci, sia idrofilici che idrofobici. Metodo di microemulsione o di omogeneizzazione a caldo Metodo di preparazione simile a quello utilizzato per le particelle polimeriche. Per poter sciogliere i lipidi solidi c’è bisogno di scaldarli. Si parte da una soluzione di lipidi in solvente e farmaco; si porta la temperatura a 64 °C, i lipidi si sciolgono e si gocciola la soluzione in una soluzione di acqua con emulsionante ad una temperatura ancora più elevata. Si forma un’emulsione sottoponendo la soluzione ad un’energia meccanica, nella quale saranno presenti, gocce del solvente con il lipide sciolto, il farmaco ed il surfattante. Abbassando istantaneamente la temperatura dai 75 ai 4 °C, si solidifica nuovamente il lipide intrappolando il farmaco al proprio interno. Lavando la soluzione, si raccoglie la particella solida lipidica voluta. Essendo una tecnica basata sull’emulsione, risulta essere scalabile. I limiti di questa tecnica 10 De Iasi/Di Caccamo 10 Bionanotecnologie (Mattu) 17/03/2022 sono la scelta del solvente, che deve essere immiscibile con l’acqua; le alte temperature di processo; il farmaco inoltre deve essere in grado di resistere alle alte temperature, o della bassa pressione. Riassumendo: Le nanoparticelle lipidiche risultano essere materiali biocompatibili, formulabili in liposomi, ovvero strutture cave applicabili clinicamente con successo, in grado di incapsulare farmaci sia idrofilici che idrofobili. La loro bassa stabilità può essere aumentata attraverso formulazioni solide, tenendo, però, conto delle alte temperature/basse pressioni richieste, non facilmente compatibili con tutti i farmaci. Tecniche di preparazione di particelle basate sui monomeri È possibile polimerizzare i monomeri in forma di nanoparticella, attraverso vari metodi: - Polimerizzazione per emulsione, dove le gocce di solvente sono stabilizzate dal surfattante, facendo sì che la polimerizzazione avvenga al loro interno; - Polimerizzazione interfacciale, richiede sempre la formazione di emulsioni ma la polimerizzazione avviene solo all’interfaccia tra le due fasi dell’emulsione, solvente ed acqua. Questa tecnica è utilizzata per lo più per ottenere capsule polimeriche; - Polimerizzazione con precipitazione di polimero, sfrutta la diversa solubilità del solvente tra monomero e polimero (non solubile) ottenuto; Polimerizzazione in emulsione Si necessita di un monomero solubile nel solvente, dovendo fare un’emulsione, il solvente e l’acqua devono essere immiscibili. Metodo facile veloce e scalabile. Se la reazione di polimerizzazione genera calore, attraverso l’acqua è possibile dissipare facilmente il calore generato. Si ottengono tipicamente particelle piccole (50-300 nm) e molto monodisperse. Solubilizzando il monomero e l’eventuale farmaco in acqua con surfattante, si applica quindi energia meccanica per la formazione di emulsione. Si formeranno le gocce di solvente liquide con al loro interno il monomero ed il farmaco, stabilizzate dal surfattante, disposto all’interfaccia. Le gocce sono micelle con monomero all’interno; aggiungendo un iniziatore di polimerizzazione, parte la reazione in acqua. L’iniziatore tende ad andare dove c’è il monomero per cui si dispone all’interfaccia tra le gocce e l’acqua ed entrando nelle gocce fa solidificare il monomero facendolo polimerizzare. Se la goccia presenta grandi dimensioni, l’iniziatore svolge il processo partendo dalle zone della micella più esterne, richiedendo un tempo complessivo molto più lungo. Al termine del processo 11 De Iasi/Di Caccamo 10 Bionanotecnologie (Mattu) 17/03/2022 sulle particelle più piccole, l’iniziatore residuo farà venir fuori dalla micella più grande altro solvente con il monomero, creando così micelle più piccole stabilizzate dal surfattante. Risulta evidente che la polimerizzazione avviene più facilmente sulle micelle piccole, per cui le micelle più grandi si comporteranno da riserva di monomero e di solvente, fino alla fine della reazione. 12 Furlotti/Scalfaro 11 Bionanotecnologie (Mattu) 17/03/2022 Tecniche di preparazione di particelle basate sui monomeri Polimerizzazione per condensazione interfacciale In questo metodo si fa avvenire la polimerizzazione all'interfaccia tra due fasi di emulsione; esattamente come nel metodo precedente bisogna formare un'emulsione. C'è bisogno di un solvente che non sia miscibile con l'acqua. In questo solvente si va a sciogliere il monomero 1 (questa volta siamo in presenza di due monomeri) insieme al farmaco. Nell'acqua verrà messo il monomero 2 e l'emulsionante. Dopodiché si andrà ad aggiungere, come al solito, il solvente nell'acqua e ad emulsionare, cioè si forma una emulsione per agitazione meccanica. Così facendo si formeranno delle gocce di solvente (cerchiate in rosso), dentro le quali è contenuto il monomero 1 e il farmaco (puntini). Nella superficie esterna, invece, in acqua, si troverà il monomero 2. La reazione di polimerizzazione avviene tra il monomero 1 e il monomero 2, quindi può avvenire soltanto nel punto in cui i due monomeri si incontrano, perciò all'interfaccia tra la goccia liquida di solvente e l'acqua. All'interfaccia si avrà quindi una struttura a guscio, perché la polimerizzazione avverrà solamente nella parte esterna, nella parte interna non avverrà e quindi la struttura risulterà la cava. Con questa tecnica è possibile ottenere micro e nano capsule. Uno dei problemi di questa tecnica è la presenza del solvente residuo, perché se dentro la goccia c’è il solvente, ovvero nella parte liquida, e si fa formare intorno un guscio solido, sarà difficile eliminare completamente questo solvente. Quindi delle di tracce di solvente possono restare all'interno della capsula e possono portare degli eventuali problemi di tossicità. Polimerizzazione con la tecnica della precipitazione Si parte da un monomero che è solubile in un solvente, quasi sempre l'acqua. Quando il monomero polimerizza in polimero, a un certo punto, non è più solubile in quel solvente e quindi precipita. Per cui si gioca sulle differenze di solubilità tra il monomero il polimero. Si parte dal monomero e lo si scioglie in acqua, dopo si fa partire la polimerizzazione: si può irraggiare con gli UV oppure si può dare un iniziatore. 1 Furlotti/Scalfaro 11 Bionanotecnologie (Mattu) 17/03/2022 Si fa iniziare la polimerizzazione e il monomero cresce formano delle catene polimeriche. Quando queste raggiungeranno una dimensione critica, cioè un certo peso molecolare, non saranno più solubili in acqua e tenderanno a precipitare. Quindi il monomero polimerizza, dopo che è stata fatta partire la reazione, si formano degli aggregati, cioè delle catene polimeriche che stanno crescendo che non sono delle vere e proprie sfere, ma saranno delle strutture meno regolari. Ad un certo punto, oltre una certa dimensione critica, perdono la solubilità in acqua e precipitano. Quindi si troverà la formazione di strutture solide, aggregati nano dimensionati solidi che non sono delle vere e proprie sfere. Quindi se si è in acqua con del farmaco, una parte di questo farmaco rimarrà intrappolata all'interno di queste strutture che precipitano. - Si lavora quasi sempre in acqua (questo è un aspetto buono perché viene evitata la tossicità legata ai solventi): quindi il farmaco deve essere solubile in acqua. Si ha un limite sulla scelta del monomero e quindi del polimero perché il monomero è solubile in acqua e il suo polimero non lo deve essere, inoltre, ogni volta che i monomeri reagiscono tra di loro, la solubilità in acqua si deve perdere; - Altro vantaggio è il fatto che lavorando in acqua si ha un’ottima capacità di disperdere il calore che eventualmente viene generato. Riassumendo: - È stato visto che ci sono tecniche che permettono di incapsulare farmaci idrofili e idrofobici (si basano sulle emulsioni); - La scelta di solventi e polimeri (meglio dire monomeri) è limitata; - I solventi possono dare problemi di tossicità, soprattutto se non si riesce a eliminarli correttamente, per esempio nella polimerizzazione all'interfaccia dove si forma la capsula; - C'è il rischio che rimangano dei residui dell’iniziatore (o catalizzatore) e di monomero oltre che di solvente. Quindi è bene pulire bene queste particelle dopo la formazione del polimero; - Inoltre si fa avvenire una reazione chimica attraverso la quale si polimerizza il monomero. Durante questa reazione chimica nell'ambiente è presente anche il farmaco e quindi è difficile evitare che il farmaco venga coinvolto nelle reazioni di polimerizzazione, cioè è possibile che una parte del monomero reagisca con il farmaco e quindi, in qualche maniera, venga modificata la struttura chimica del farmaco. È possibile che il farmaco che 2 Furlotti/Scalfaro 11 Bionanotecnologie (Mattu) 17/03/2022 si vuole incapsulare si leghi al monomero che si sta formando, quindi si è formato un altro farmaco cioè un farmaco legato ad un polimero e non è detto che abbia mantenuto la sua funzione. Quindi è possibile che facendo reazioni chimiche in presenza nel farmaco esso perda la sua attività farmacologica, cioè c’è il rischio di inattivazione dei farmaci ed è quello più grave in queste tecniche. DOMANDA: La dimensione critica di precipitazione da che cosa dipende? È possibile controllare le dimensioni finali? RIPOSTA: È un po’ difficile stabilire qual è la dimensione critica cioè il peso molecolare critico per il quale polimero non è più solubile nel solvente. Tipicamente succede che quando il monomero polimerizza la catena cresce, quando raggiunge un determinato peso molecolare per cui non è più solubile in acqua tenderà a precipitare. Quando precipita potrà trovare altre catene che stanno crescendo e quindi si formeranno, durante la precipitazione, degli aggregati tra catene e quindi andranno a precipitare. Questo per dire che è difficile controllare le dimensioni delle particelle perché dipende da come avviene la precipitazione, e da quante catene polimeriche interagiscono tra di loro durante la precipitazione. Non è semplice controllare le precipitazioni solamente sapendo qual è il limite di solubilità in acqua. Inoltre il monomero non polimerizza tutto nello stesso modo, quindi la crescita delle catene non è uniforme. Può essere che una catena più corta e ancora parzialmente solubile venga catturata da una più grande durante la precipitazione e precipita. Oppure ancora è possibile che una catena piccola, che sta crescendo, e una catena grande, che sta precipitando, reagiscano a formare una catena più grande. È un processo piuttosto “casuale” ed è difficile da controllare. Polymer nanoparticles – toward 3rd generation particles Si possono avere delle particelle di prima, seconda o terza generazione. Le particelle polimeriche avranno una superficie costituita dal polimero, se è stata lavata bene e quindi è stato rimosso il surfattante, oppure è costituita dal polimero e da qualche eventuale residuo di surfattante sulla superficie. Le particelle si chiamano di prima generazione e sono le prime ad essere state utilizzate finché non si è capito che serviva rendere la superficie in grado di evadere il controllo da parte del sistema immunitario. Sono chiamate particelle di seconda generazione quelle che presentano in superficie delle catene di PEG. Mentre le particelle che presentano dei ligandi per il riconoscimento specifico sono chiamate particelle di terza generazione. 3 Furlotti/Scalfaro 11 Bionanotecnologie (Mattu) 17/03/2022 Making third generation particles Come si fa a passare dalla particella di prima generazione ottenuta dopo le tecniche di preparazione viste, quella che ha la superficie generica e il surfattante, alle strutture più avanzate di seconda o terza generazione? Ci sono più modi, tutti coinvolgono le modifiche della struttura del polimero: 1) Si possono sfruttare gruppi funzionali presenti nel polimero. Si ha un polimero, poliuretano (PUR with BOC-protected NH2), con cui si vanno a preparare le particelle. Questo polimero presenta un gruppo funzionale (NH2-BOC) che è un gruppo amminico presente sulla catena laterale (si vede che non si trova sulla catena principale): per questo motivo è disponibile a reagire con altri gruppi. Durante tutta la preparazione delle particelle, il gruppo amminico è inattivo perché presenta il gruppo di protezione BOC che impedisce al gruppo amminico di reagire con altri gruppi. Si usa il metodo dell'emulsione: una parte di questi gruppi pendenti si troverà sicuramente sulla superficie. Quindi sulla superficie c'è un gruppo funzionale anche se ancora non è reattivo. Il gruppo BOC si può rimuovere abbassando il pH (pH acido). In questo modo rimangono sulla superficie dei gruppi amminici che, invece, in questa condizione, sono reattivi quindi è possibile sfruttarli per legare delle biomolecole sulla superficie. Nell'immagine viene legato sulla superficie un anticorpo monoclonale sfruttando la reazione tra gruppo amminico sulla superficie delle particelle e un gruppo carbossilico dell'anticorpo. In questo modo è possibile modificare la superficie della particella e renderla di seconda o di terza generazione; quindi si può attaccare il PEG oppure si può attaccare direttamente il ligando. In ogni caso è possibile modificare la superficie della particella sfruttando gruppi funzionali già presenti nel polimero per legare alla superficie ciò che interessa. Le particelle di prima generazione sono biocompatibili, ma il problema è che si ha difficoltà nel trasporto, cioè come queste particelle si distribuiscono nell'organismo. Le particelle di 4 Furlotti/Scalfaro 11 Bionanotecnologie (Mattu) 17/03/2022 prima generazione che non presentano il PEG in superficie vengono direttamente catturate dalle cellule del sistema immunitario e vengono eliminate dal fegato; quindi per ridurre questo accumulo nel fegato si aggiunge il PEG per renderle capaci di circolare più a lungo. Per le molecole di seconda generazione è possibile legare il PEG, che è la molecola più usata, ma anche particelle alternative che presentano in superficie delle membrane cellulari, ad esempio la membrana cellulare dei macrofagi che sono cellule circolanti; si pensa che queste cellule siano in grado di circolare più a lungo perché sono mascherate come cellule che circolano normalmente. In genere si può dire che le particelle di prima generazione siano biocompatibili; le modifiche superficiali vengono fatte più per migliorare la questione del trasporto. Per le particelle di seconda generazione si preferisce di norma utilizzare il PEG, in altri casi in superficie possono presentare delle membrane cellulari come quelle dei macrofagi, quindi si può cambiare in questo modo la superficie per dare proprietà stealth. 2) Un altro modo per modificare la superficie della particella è quello di partire direttamente da polimeri che presentano il PEG o gruppi funzionali attaccati al PEG. Ad esempio si possono utilizzare copolimeri a blocchi, quindi si usa un polimero fatto ad esempio da un blocco di PLGA (verde) e da un blocco di PEG (viola), quindi si ha un polimero idrofobico (PLGA) e un polimero idrofilico (PEG). Perciò il polimero con cui si vanno a costituire le particelle è costituito da due blocchi. 5 Furlotti/Scalfaro 11 Bionanotecnologie (Mattu) 17/03/2022 Si può partire dai copolimeri e fare la particella: la porzione idrofobica (azzurra) si disporrà all'interno mentre quella idrofilica all'esterno (verde). Quindi la particella si fa direttamente con il copolimero PLGA-PEG, con il PEG tutto sulla superficie. Tutto il PEG sulla superficie può dare un fenomeno di saturazione, cioè è possibile che sulla superficie ci sia troppo PEG. Normalmente si compra il PEG con già dei gruppi funzionali terminali (come nell'esempio visto prima era il gruppo amminico). Quindi intorno alla particella si hanno un sacco di gruppi funzionali esposti sulla superficie. Se si vuole fare legare il ligando per passare alla particella di terza generazione si rischia di saturare la superficie avendo troppi siti per il legame. Quindi a volte queste strutture permettono uno scarso controllo della composizione della superficie, poiché tanto ligando tende a reagire sulla superficie. Si rischia di saturare la superficie mettendoci troppo ligando. Si ha scarso controllo del numero di gruppi funzionali in superficie che si traduce nello scarso controllo della composizione della superficie, cioè di quanto ligando posso legare. Avere troppo ligando sulla superficie significa, per prima cosa, la possibilità di attivare una reazione negativa da parte del sistema immunitario e quindi l'eliminazione della particella; in secondo luogo se il ligando non è libero di muoversi e non è in grado di interagire con il proprio recettore, la reazione specifica ligando-recettore non può avvenire. Quindi il ligando, soprattutto quando è una molecola grande, deve avere spazio per muoversi sulla superficie, in modo da trovare la corretta conformazione necessaria per interagire con il suo recettore. Se ce n'è troppo in superficie non si ha nessuno riconoscimento specifico, quindi il ligando non riuscirà a ruotarsi in modo opportuno per reagire con il recettore. Per questo una superficie troppo carica di ligandi è controproducente. Inoltre quello che si vuole è avere un controllo di quanto ligando si è riusciti a mettere più o meno sulla superficie. Se si hanno troppi gruppi funzionali questo controllo viene perso e il ligando reagisce come vuole. 3) Quindi per ridurre questo problema invece di utilizzare soltanto il polimero a blocchi, si utilizza un mix, cioè un blend, di polimero a blocchi (es PLGA-PEG) e il polimero PLGA non legato al PEG. Si decide dall'inizio qual è il rapporto tra PLGA senza PEG, e PLGA-PEG dove il PEG presenta un gruppo funzionale. Si mischiano questi due polimeri secondo un rapporto deciso all’inizio della preparazione, si prepara particella e a questo punto il polimero PLGA, sia che sia legato, sia che non lo sia al PEG, andrà a disporsi tutto al centro mentre il PEG andrà a mettersi sulla superficie. Siccome è stato usato più PLGA rispetto a quello PLGA-PEG, c'è molto meno PEG sulla superficie ed è possibile controllare in modo fine il numero di gruppi funzionali sulla superficie. A questo punto si aggiunge il ligando, questo si lega alla superficie solamente nei punti in cui è presente il PEG. 6 Furlotti/Scalfaro 11 Bionanotecnologie (Mattu) 17/03/2022 Una strategia per controllare la composizione della superficie consiste nell’usare un mix tra il polimero normale e il polimero peghilato, cioè legato al PEG. In questo modo scegliendo il rapporto tra i due si controlla quanto PEG sarà sulla particella e di conseguenza si controlla il numero dei gruppi funzionali sulla superficie e il numero di ligandi presenti sulla superficie della particella. 4) Ultimo modo è preparare delle particelle dette particelle ibride. 7 Furlotti/Scalfaro 11 Bionanotecnologie (Mattu) 17/03/2022 Queste sono ad esempio ibridi fra una particella polimerica e una particella lipidica. Quindi si avrà una particella polimerica (blu) che forma il core e la superficie sarà costituita da lipidi (rosso). È possibile comprare dei lipidi di diversa natura quindi di diversa composizione. Alcuni lipidi presentano una catena di PEG, quindi si può scegliere la composizione lipidica della superficie includendo anche dei lipidi che presentino delle catene di PEG. Quindi si sarà rivestita la particella polimerica con una componente lipidica (quindi sarà stata resa più affine alla membrana cellulare) e si sarà anche inserito il PEG, quindi si ottiene una particella di seconda generazione, ma si possono anche utilizzare dei lipidi terminati con un ligando, ottenendo così particelle di terza generazione. Sfruttando i lipidi e loro versatilità, modificando i lipidi con eventuali anticorpi o ligandi, si fanno assemblare sulla superficie della particella polimerica. In questo modo si è fatta una modifica della superficie inserendo tutto ciò che serve per renderla di seconda o di terza generazione. Questi possono essere lipidi commerciali oppure si possono prendere direttamente dalle membrane cellulari, si può rivestire la particella anche con una componente lipidica delle membrane cellulari. Si prende una cellula e i lipidi che compongono la sua membrana e si fanno auto assemblare sulla superficie della particella. Quindi i lipidi possono essere utilizzati per mascherare la superficie della nanoparticella dandole capacità di seconda o di terza generazione, cioè di circolare a lungo e di riconoscere il target in modo selettivo. È possibile aggiungere anche i lipidi peghilati. I lipidi possono legare il PEG, oppure al PEG si può legare il legando oppure si può direttamente legare il ligando al lipide. Il metodo più utilizzato, in genere, è sempre quello che utilizza o quello di mix di copolimeri col PEG, oppure quello che modifica direttamente la superficie della particella. Si tende a non utilizzare il primo metodo perché bisogna fare delle reazioni chimiche sulla particella, ad esempio portare il pH a 1 non è una condizione molto semplice da sopportare, perché si rischia di creare una condizione di difficile stabilità per la particella stessa. È più difficile pensare di traslare questa applicazione su una vera applicazione clinica. Quindi in genere si utilizza il terzo metodo oppure si comprano polimeri in cui il ligando è già presente, quindi sfruttare la formazione della particella già in presenza del ligando, invece che modificare la superficie della particella si utilizzano polimeri che già contengono il ligando in modo da facilitare l'ottenimento di questa struttura. Le particelle di terza generazione, cioè quelle che fanno targeting, non sono ancora testate in clinica. Perciò in genere si utilizzano polimeri già peghilati o lipidi già peghilati. Concludendo: per rendere la particella in grado di riconoscere il suo target bisogna modificare la superficie, quindi c'è bisogno di particelle in grado di circolare a lungo (stealth) e in grado di conoscere il loro target. Si possono ottenere modificando la superficie delle particelle polimeriche usando sono i gruppi funzionali già presenti nel polimero (strategia 1), o copolimeri a blocchi che contengano già il PEG con il gruppo funzionale, oppure dei blend tra polimero e copolimero, oppure preparando strutture ibride in cui la particella polimerica costituisce il core e la superficie è formata da lipidi di diversa composizione che possono essere artificiali o derivati dalle membrane cellulari. 8 Furlotti/Scalfaro 11 Bionanotecnologie (Mattu) 17/03/2022 Nanoparticelle intelligenti Una particella intelligente è una particella in grado di rispondere a uno stimolo applicato dall'esterno. Per quanto riguarda le particelle polimeriche intelligenti, la risposta allo stimolo deriva dalla composizione del polimero. Quindi il polimero è stato strutturato in modo da contenere dei gruppi capaci di reagire in specifiche condizioni (ad esempio di pH), quindi è in grado di rilevare un cambiamento di condizioni esterne e di modificare la propria composizione di conseguenza. Sono già stati visti esempi di particelle intelligenti parlando di particelle inorganiche, ad esempio le particelle di ossidi di ferro sono in grado di rispondere a uno stimolo come ad esempio un campo magnetico applicato dall'esterno. Quindi anche le particelle inorganiche sono intelligenti: se si applica la luce nel caso delle particelle d'oro queste attuano una risposta. Per le particelle inorganiche la risposta allo stimolo è dovuta alle dimensioni nano: le nano particelle di ossidi di ferro rispondono al campo magnetico scaldandosi perché sono alla nanoscala, poiché alla nanoscala ruotano e si scaldano. La risposta allo stimolo è dovuta alla nano dimensione. Lo stesso accade per le particelle d'oro: queste si scaldano se colpite con la luce perché presentano il fenomeno della risonanza plasmonica di superficie, caratteristico delle particelle nano di oro e non dell’oro in forma di bulk. Quindi è una proprietà che il materiale ha acquisito per il fatto di essere stato formulato alla nanoscala. Per i polimeri non è così. Il polimero contiene in sé i gruppi che danno la risposta agli stimoli e ce li ha sia in forma di bulk sia alla nanoscala. Quindi la capacità di rispondere allo stimolo dipende solamente dalla struttura del polimero che è la stessa alla nano e alla macroscala. Quindi non c'è vantaggio dato dal lavorare alla nanoscala. L'unica cosa che cambia è il trasporto, cioè il modo in 9 Furlotti/Scalfaro 11 Bionanotecnologie (Mattu) 17/03/2022 cui il polimero viene trasportato nell'organismo: se grande verrà trasportato in un modo o non verrà trasportato, il polimero formulato in forma di nanoparticelle verrà trasportato in un certo altro modo. Modificando la superficie della nanoparticella polimerica si può decidere come questa verrà trasportata. Il PEG dà la possibilità di farla circolare più a lungo. Per quanto riguarda le particelle polimeriche è possibile includere la risposta a specifici stimoli che quasi sempre dipendono dall'ambiente patologico. Rispetto alle particelle di ossidi di ferro o di oro, per le quali viene applicato lo stimolo esterno, spesso le particelle polimeriche sono in grado di rispondere a uno stimolo che trovano già nel momento in cui si accumulano. Quindi si produce la particella polimerica, la si fa trasportare nel sito che si vuole raggiungere (ad esempio si accumula nel tumore), e li troverà un certo stimolo, ad esempio una diversa condizione di pH. Questo stimolo, che la particella riceve nel sito in cui si accumula, induce una modifica della struttura polimerica della particella stessa. Tipicamente la particella si disintegra rilasciando il suo farmaco. Perciò polimeri stimolo sensibili permettono di realizzare particelle stimolo sensibili che vengono trasportate nel sito target dove ricevono lo stimolo che induce la disgregazione della particella e quindi al rilascio del farmaco. È stato visto che i siti patologici presentano una serie di caratteristiche che li rendono diversi dai siti sani: ad esempio per i tumori è presente una angiogenesi alterata, quindi molti vasi sanguigni aggrovigliati, presentano uno scarso smaltimento di calore e scarso smaltimento dei prodotti di scarto del metabolismo cellulare. Quindi è alterato lo stato metabolico del tessuto e così vi sono una serie di modifiche: carenza di ossigeno (ambiente ipossico), diversa concentrazione di proteine ed enzimi, quindi per rispondere alle particolari condizioni dei tessuti patologici specifiche proteine possono essere richiamate in quel tessuto. Ad esempio i tumori tendono a richiamare delle proteine che degradano la matrice extracellulare: lo fanno perché hanno bisogno di più spazio e perché a un certo punto le cellule tumorali si vogliono staccare per potersi spostare e migrare da un'altra parte cercando un ambiente più favorevole. Se nella massa che si sta formando si genera un ambiente in cui manca ossigeno perché non ci sono abbastanza nutrienti, le cellule tenderanno a staccarsi e andare da un'altra parte. Quindi dentro la massa vengono spesso richiamate delle proteine che agiscono in supporto alle cellule permettendo loro più facilmente di staccarsi e migrare. In questo modo si può sfruttare la presenza di proteine ed enzimi in concentrazione elevata all'interno delle masse tumorali. Chiaramente un ambiente con scarso ossigeno, alterato stato ipossico, avrà livelli di pH diversi rispetto ai tessuti sani, in particolare pH sarà più acido rispetto a quello dei tessuti sani. Quindi uno stimolo che si può sfruttare è anche il pH. Si sfrutta anche l'ambiente ossidativo che è presente all'interno delle masse tumorali, dovuto al fatto che si accumulano specie reattive dell'ossigeno e quindi alterano lo stato ossidativo del tessuto. Queste condizioni non sono solo dei tumori, ma anche altri tessuti ad esempio quelli infetti presentano condizioni simili: tessuti infetti che presentano un'elevata proliferazione batterica possono dare alterato stato metabolico e condizioni più acide rispetto all'ambiente esterno. Perciò anche altri tipi di patologie possono essere trattate usando polimeri stimolo sensibili. 10 Furlotti/Scalfaro 11 Bionanotecnologie (Mattu) 17/03/2022 Polymer nanoparticles – response to endogenous stimuli Gli stimoli che quindi si possono sfruttare sono tre: - La concentrazione di proteine o enzimi; - Il pH; - Lo stato ossidativo. Questi tre stimoli possono essere sfruttati per creare particelle in grado di attuare una specifica risposta in funzione di uno o più stimoli messi insieme. Il polimero con cui si realizza la particella conterrà dei gruppi che cambiano la loro conformazione in funzione dello stimolo esterno. Si potrà avere una particella realizzata con un polimero stimolo sensibile e avrà ad esempio una porzione che contiene un certo gruppo funzionale in grado di rispondere allo stimolo (ad esempio il pH). Quando si mette la particella nelle condizioni di ricevere lo stimolo il polimero cambia la sua conformazione e la particella si disgrega interamente, questo è in seguito alla modifica di conformazione che il polimero subisce al pH opportuno. In questo modo avverrà il rilascio del farmaco. Oppure si può utilizzare un polimero che contenga un legame sensibile allo stimolo (per esempio sempre il pH). In questo caso si legano polimero e farmaco con un legame pH sensibile. Quando arriva lo stimolo esterno questo legame si rompe e il farmaco viene rilasciato. Sono due modi differenti di fare la stessa cosa: nel primo caso si disgrega la particella, nel secondo caso si rompe soltanto il legame tra il polimero e il farmaco e quindi l'integrità della particella viene mantenuta. 11 Furlotti/Scalfaro 11 Bionanotecnologie (Mattu) 17/03/2022 Inoltre si può realizzare interamente la nanoparticella con il polimero stimolo sensibile oppure si può utilizzare il polimero stimolo sensibile per rivestire un'altra particella. Si ottiene così un rivestimento stimolo sensibile e quando si applica lo stimolo si disgrega solo il polimero del rivestimento e viene così liberata la particella che si trovava all'interno. In questi tre modi si ottiene la liberazione del farmaco in specifiche condizioni, ad esempio specifiche condizioni di pH o determinate condizioni che si trovano nell'ambiente patologico. È quindi possibile sfruttare la chimica dei polimeri per andare a creare delle particelle che siano in grado di circolare a lungo, che siano in grado di accumularsi per effetto passivo o per riconoscimento specifico, e una volta accumulate nel target, che siano in grado di rispondere allo stimolo che ricevono in quel sito. Si sfrutta quindi la chimica dei polimeri per avere una risposta allo stimolo che ricevo nel sito target. La particella chiaramente prima deve però arrivare nel sito target e quindi occorre utilizzare una corretta strategia di design della particella in modo che questa sia correttamente trasportata nel sito, dove ci si aspetta che riceva lo stimolo che indurrà il rilascio. Se la cellula non riesce ad arrivare nel sito è inutile che abbia una sensibilità allo stimolo. Quindi serve un corretto design del polimero in modo che possieda capacità stealth ed eventualmente capacità di riconoscimento specifico in modo che possa arrivare nel sito dove si possa poi sfruttare la capacità di rispondere allo stimolo specifico. pH – responsive nanoparticles Per quanto riguarda gli stimoli specifici si parla del pH. I sistemi sensibili al pH sono tra quelli più utilizzati in ricerca. Osservando la letteratura scientifica si troveranno diversi sistemi di particelle sensibili alle condizioni di pH. Questi sistemi in genere sono stabili al pH fisiologico e si modificano quando sono esposti a cambiamenti di pH, innalzamenti o abbassamenti dipende dalla struttura del polimero. Quindi quando il pH si modifica, rispetto al pH fisiologico (che è di 7.4) si hanno delle modifiche nella struttura del polimero che portano alla disgregazione della particella. 12 Furlotti/Scalfaro 11 Bionanotecnologie (Mattu) 17/03/2022 Si può ad esempio sfruttare la differenza di pH nel tratto gastrointestinale rispetto allo stomaco. Quindi ad esempio i sistemi per rilascio dei farmaci introdotti per via orale sfruttano delle variazioni di pH che si hanno tra lo stomaco (acido di 1-3) e il pH dell'intestino (6-8). Esistono dei sistemi per via orale che sono stabili nelle condizioni di pH dello stomaco e che si destabilizzano quando il pH si alza e si passa al pH dell'intestino più alto. Non si vuole che il farmaco sia rilasciato nello stomaco dove verrebbe degradato per via delle condizioni acide, ma si vuole il rilascio nell'intestino, che è molto vascolarizzato: il farmaco verrà assorbito dai vasi sanguigni ed entrerà in circolo. Non si vuole il rilascio nello stomaco. Perciò scegliendo opportunamente la struttura del polimero si riesce a controllare la sensibilità al pH, cioè la reazione che il polimero ha al pH all'interno di specifici range di pH stesso. Non è detto che la particella si disgreghi passando da 7.4 ad un altro pH, ma è possibile che la particella si disgreghi passando dal pH 3 al pH 7. Quindi le condizioni di pH che inducono la disgregazione della particella si decidono scegliendo con quali gruppi funzionali modificare la particella o quali gruppi inserire nel polimero. È poi possibile sfruttare condizioni patologiche, ad esempio le variazioni di pH nei tessuti tumorali. Normalmente il pH nell'organismo è di 7.4 mentre nei tumori e nei tessuti con elevata proliferazione batterica hanno valori di pH bassi (tra 5-6.5). Perciò si sfruttano le condizioni di pH più acido per attivare il rilascio in queste specifiche condizioni. Le pastiglie spesso sono una struttura in cui è possibile avere delle strutture nano che compattano più microstrutture e che quando la pastiglia si disgrega queste vengano rilasciate. Infatti le pastiglie sono fatte per proteggere il farmaco al pH dello stomaco e favorire il rilascio intestinale. 13 Furlotti/Scalfaro 11 Bionanotecnologie (Mattu) 17/03/2022 A livello della stessa cellula il pH cambia nei vari compartimenti, ad esempio all'esterno della cellula si può trovare un pH di 7.4, mentre dentro nei compartimenti cellulari il pH diventa più acido. Quindi quando le nano particelle entrano all'interno della cellula vengono inglobate all'interno della membrana cellulare. Perciò all'interno della cellula si avrà la membrana cellulare che si è ripiegata e ha inglobato la particella (si trova all'interno viola nella membrana azzurra). La particella si trova all'interno di endosomi, che derivano dal ripiegamento della membrana cellulare. Gli endosomi hanno un pH acido rispetto a quello all'esterno della cellula e tendono a degradare quello che portano all'interno. Man mano che l’endosoma si muove all'interno della cellula questo matura e forma quello che si chiama un lisosoma. Nel lisosoma il pH è ancora più acido rispetto a quello dell’endosoma, poiché il lisosoma sta cercando di degradare quello che si trova al suo interno. Una volta che il lisosoma ha degradato ciò che c'era al suo interno ritorna alla membrana e “sputa” fuori il contenuto ormai degradato (freccia azzurra). Perciò il lisosoma è l'ultima barriera che la particella deve superare per rilasciare il farmaco dentro nella cellula. Si possono sfruttare i diversi pH all'interno degli endosomi e dei lisosomi per indurre il rilascio del farmaco. Riassumendo: - - È possibile avere variazioni di pH fra i tessuti normali a seconda del compartimento considerato. Ad esempio stomaco-intestino sani; è possibile avere diversi tipi di pH fra tessuti patologici e i tessuti normali come ad esempio tessuto normale vs tumore o tessuto normale vs tessuto con proliferazione batterica. Infine è possibile avere diversi pH tra compartimenti cellulari, perciò fra l'esterno della cellula e le sue componenti interni quali endosomi e lisosomi. DOMANDA: Se la nano particella viene poi sputata fuori il rilascio di farmaco sta fuori dalla cellula? RISPOSTA: Si vedrà che gli endosomi e i lisosomi sono un'altra barriera all'effettivo funzionamento delle particelle. Ci sono delle strategie per “scappare” dagli endosomi; si parla di endosomal escape. Quando si disegnano delle particelle che sono in grado di rompere l’endosoma e quindi di uscire senza venire riciclate sulla membrana cellulare, c'è attenzione al fatto che la particella non deve venire “sputata fuori”. Si sfruttano quindi i polimeri che siano in grado di accettare o cedere protoni a seconda delle condizioni di pH. Si possono, per esempio, utilizzare polimeri che presentino gruppi acidi (gruppi carbossilici), i quali accettano protoni a pH basso e quindi si stabilizzano, mentre si deprotonano quando il pH si alza e quindi si destabilizzano. 14 Furlotti/Scalfaro 11 Bionanotecnologie (Mattu) 17/03/2022 Oppure è possibile utilizzare polimeri che presentino gruppi basici, ad esempio i gruppi amminici, che si protonano (acquistano protoni a basso pH e si destabilizzano, poiché acquistano una carica positiva). Quindi i gruppi acidi hanno una carica negativa, acquistano protoni e la carica si neutralizza in questo modo il polimero si stabilizza. Quando perdono protoni ritornano carichi negativamente e quindi cariche negative si respingono e la struttura si destabilizza. I gruppi basici invece acquistano protoni, si caricano positivamente; cariche positive si respingono e quindi la struttura si destabilizza. È poi possibile scegliere dei legami pH sensibili che si rompono in specifiche condizioni di pH e sono ad esempio legami che contengono gruppi ortoesteri, acetali e idrazone. Questi gruppi si rompono in specifiche condizioni di pH causando il rilascio del farmaco o la disgregazione della particella. ESEMPIO: Nano particella pH sensibile per il rilascio nel tratto gastrointestinale Si vuole che il farmaco non venga rilasciato nello stomaco dove il pH è acido, ma che venga rilasciato nell'intestino dove si alza il pH. Si possono sfruttare dei polimeri che contengono ad esempio dei gruppi acidi (gruppi carbossilici): il gruppo carbossilico presenta carica negativa. A bassi pH il gruppo carbossilico accetta protoni: COO- è carico negativamente e tende ad accettare protoni a bassi pH, quindi la carica negativa si neutralizza e il gruppo si stabilizza. Perciò si ha una struttura stabile quando il gruppo acquista protoni. Se però si alza il pH, il gruppo cede i protoni e ritorna caricato negativamente, quindi più gruppi carbossilici saranno vicini e carichi negativamente, si respingono e la struttura polimerica si destabilizza a causa della repulsione tra cariche. Quindi sono realizzate delle particelle utilizzando un copolimero PCL-PEG a blocchi. Quindi si formerà una struttura simile a quella descritta prima in cui c'è il polimero al centro e il PEG si mette sulla superficie. Oltre al PEG ci sono delle catene laterali di PMAA, acido polimetacrilico, un polimero che contiene gruppi carbossilici. Questo polimero al pH dello stomaco acquisterà protoni e tenderà quindi ad avere una carica neutra. Va quindi a disporsi tutto intorno alla particella. 15 Furlotti/Scalfaro 11 Bionanotecnologie (Mattu) 17/03/2022 Quindi il PCL si troverà al centro (rosa); il PEG si mette in superficie (azzurro), in più si avrà il PMAA. Quando il gruppo carbossilico ha la carica negativa, questo gruppo tenderà ad andare verso la parte esterna (viola). A pH basso, ad esempio nello stomaco, i gruppi hanno cariche negative (cariche meno viola). Questi gruppi accetteranno protoni, si neutralizzano e non si avrà più la repulsione fra cariche, quindi il polimero viola si stabilizza e si passa ad una configurazione in cui le particelle stabili si ripiegano sulla superficie della particella formando un rivestimento che rallenta il rilascio del farmaco. Perciò in condizioni acide le catene di PMAA si protonano e perdono la carica negativa e tendono a ripiegarsi verso la superficie creando un rivestimento protettivo. Quando il pH si solleva tornando a 7.4, la particella ritorna alla configurazione vista inizialmente. I gruppi carbossilici del PMAA si deprotonano, cedono protoni, quindi il gruppo si carica negativamente e il rivestimento si apre di nuovo per la repulsione tra cariche negative. Adesso la struttura della particella è aperta e quindi consente la fuoriuscita nel farmaco in questa specifica condizione di pH, mentre la rallenta nell’altra. Si riesce quindi a sfruttare la capacità del polimero di acquistare o cedere protoni a seconda del pH per stabilizzare o destabilizzare la struttura, quindi rallentare o accelerare il rilascio. 16 Ferraro/Memeo 12 Bionanotecnologie (Mattu) 17/03/2022 Smart polymer nanoparticles parte I pH-responsive nanoparticles – GI release Esistono nanoparticelle in grado di rispondere al pH, ne sono un esempio le particelle disegnate per reagire agli stimoli di pH che ricevono in tratti differenti del tratto gastrointestinale in cui si passa da un pH acido, nello stomaco, ad un pH che diventa più basico nell’intestino. Lo scopo del rilascio orale dei farmaci è farli passare indenni per lo stomaco e farli arrivare all’intestino dove si vuole che il principio attivo sia rilasciato per essere assorbito dai vasi sanguigni da cui in farmaco entra in circolo. (L’obbiettivo è passare dallo stomaco senza essere danneggiato ed arrivare il più possibile intatto nell’intestino). Il polimero rappresentato è formato da una porzione idrofobica di policaprolattone, una porzione più idrofilica di PEG e presenta come catene laterali delle catene polimeriche con terminazioni acide di gruppi carbossilici. Questi ultimi sono carichi negativamente e acquistano protoni in specifiche condizioni di pH quindi la carica totale si neutralizza, in particolare questo accade a pH acido. Nello stomaco il pH è acido quindi la struttura presenta gruppi carbossilici che acquistano protoni e sulla superficie della particella si ripiegano le catene formando un extra strato di protezione sulla superficie della particella che rallenta il rilascio del farmaco. Non appena la particella passa dallo stomaco all’intestino il pH si solleva, il gruppo carbossilico si deprotona tornando con carica negativa, le catene si respingono tornando a distendersi e così facendo liberano la particella dallo strato di protezione e il farmaco può uscire liberamente dalla particella. Il sistema sfrutta le cariche negative del gruppo carbossilico in grado di stabilizzarsi a pH acido proteggendo la particella e destabilizzarsi quando il pH si risolleva deproteggendo la superficie della particella e accelerando il rilascio, quindi il sistema rallenta e accelera il rilascio. (sbagliato dire che il sistema si accende e si spegne). Il farmaco è disperso in una matrice polimerica e il rilascio dipende quindi dai meccanismi di diffusione, il farmaco si diffonde quindi verso l’esterno seguendo la direzione da dove ce ne è di più a dove ce ne è di meno. Questa diffusione viene solo rallentata quando si aggiunge un altro strato sulla superficie, infatti la diffusione avviene comunque ma c’è solo un altro ostacolo da affrontare; quindi, nel rilascio diffusivo è corretto parlare di rallentamento e accelerazione del rilascio. Ferraro/Memeo 12 Bionanotecnologie (Mattu) 17/03/2022 Osservando i profili di rilascio del farmaco in vitro si nota cosa cambia al variare del pH. A pH 3 il rilascio del 40% si ottiene circa con 8 ore, aumentando il pH il rilascio è più veloce, infatti con lo stesso tempo si ottiene l’80% del rilascio quindi viene rilasciato il doppio del farmaco rispetto a pH 3. Questo perché a pH 7,4 non c’è lo strato di protezione quindi il rilascio è accelerato. Però è sbagliato dire che a pH 3 il rilascio equivale a 0. Il rilascio diffusivo non è facilmente controllabile, difficile da annullare. pH-responsive nanoparticles- Intra-tumor release I polimeri pH sensibili generalmente presentano gruppi acidi o gruppi basici, segue un esempio di polimero avente gruppi amminici NH2 che acquistano protoni a pH acido e si caricano positivamente; quindi, il gruppo diventa NH3+ con carica netta positiva. Le cariche positive si respingono tra di loro quindi il polimero destabilizza a pH acido, mentre il caso precedente si stabilizzava a pH acido e destabilizzava a pH più alti. Esempio: Polimero con parte idrofobica e parte idrofilica che trasporta un farmaco antitumorale chiamato doxorubicina, nanoparticella che si destabilizza a pH acido che caratterizza il tumore e rilascia il farmaco maggiormente in quelle condizioni di pH. Esaminando il profilo di rilascio del farmaco, a pH 7.4 abbiamo circa il 20 % di farmaco rilasciato in 24 ore circa, mentre nelle condizioni di pH acido 5.5 c’è rilascio superiore all’80% nello stesso tempo. Il sistema si disassembla a pH acido perché le cariche positive si respingono e il farmaco viene rilasciato. Ferraro/Memeo 12 Bionanotecnologie (Mattu) 17/03/2022 Parlando dei sistemi che rispondono agli stimoli si è detto che il polimero può interamente disassemblarsi, quindi il polimero si destabilizza e la struttura cambia, oppure è possibile usare dei polimeri che rispondono agli stimoli per rivestire altre strutture. pH-responsive polymer shell for intracellular release Esempio di particella inorganica di ossido di silicio che presenta dei canali nanodimensionati in cui è possibile inserire una grande quantità di farmaco, il problema di questi canali è sono facili da caricare di farmaci, ma allo stesso tempo il farmaco viene poi rilasciato molto velocemente quindi è necessario rallentare la fuoriuscita del farmaco dai canali e accelerarla in determinate condizioni ad esempio dentro la cellula. Pertanto; si applica un rivestimento sulla particella utilizzando un polimero pH sensibile, in particolari condizioni di pH non sarà tutta la particella a degradarsi ma si romperà soltanto il rivestimento esterno e la particella sarà liberata e il rilascio del farmaco dai canali sarà accelerato. Si applica un rivestimento di protezione che rallenta il rilascio, ad un certo punto, in specifiche condizioni di pH, il rivestimento si disassembla, rimane solo la particella e il farmaco può uscire dai canali quindi si ottiene l’accelerazione del rilascio in particolari condizioni di pH. In questo caso le condizioni sono quelle di un ambiente ipercellullare, perché all’interno della callula il pH varia in base ai dipartimenti della cellula che consideriamo. Dall’immagine si vede la particella che entra nella cellula, viene inglobata all’interno di una porzione della membrana cellulare formando una struttura chiamata endosoma che presenta un pH acido quindi il rivestimento inizia a degradare e il farmaco viene rilasciato. In seguito, l’endosoma matura e diventa un lisosoma, il pH incrementa l’acidità e il farmaco continua ad essere rilasciato fino a quando la particella non viene espulsa dalla cellula priva del rivestimento e costituita esclusivamente dalla sua parte inorganica. In questo caso solo il rivestimento è pH sensibile e si rimuove solo in specifiche condizioni come dentro gli endosomi, il farmaco viene qui rilasciato e la particella inorganica viene eliminata. Domanda: Perché il lisosoma ha pH più acido dell’endosoma? Perché il suo scopo è quello di degradare le sostanze presenti dentro l’endosoma, quando quest’ultimo decide di degradare le sostanze contenute al suo interno diventa un lisosoma e riduce il suo pH per favorire la Ferraro/Memeo 12 Bionanotecnologie (Mattu) 17/03/2022 degradazione. (Vedremo in seguito che le nanoparticelle devono arrivare intatte dentro la cellula e poter uscire dall’endosoma per essere degradate ed eliminate). COMMENTO IMMAGINE: dentro la cellula, siccome la particella viene trasportata e degradata il suo contenuto che è un farmaco fluorescente, visibile in rosso, si accumula all’interno della cellula. Mentre usando soltanto il farmaco senza particella la penetrazione nella zona intracellulare è limitata, questo dimostra la capacità di trasportare il farmaco dentro la cellula e accelerare il rilascio del farmaco sfruttando la degradazione). Esempio che rappresenta il caso in cui si lega il farmaco chimicamente ed è il legame farmacoparticella ad essere pH sensibile. Invece di mettere il farmaco all’interno del polimero e avere rilascio diffusivo, il farmaco viene collocato sulla superficie di un trasportatore e ad essa legato con un legame pH sensibile. Fino a quando non si rompe il legame il farmaco non viene rilasciato, legare i farmaci alla particella permette un miglior controllo del profilo di rilascio. Il rilascio a pH 7.4 è meno del 10% mentre abbassando il pH si arriva al 100 % a pH 5.3; pertanto, legando il farmaco ad una particella con legame pH sensibile, alle condizioni di pH in cui il legame si rompe si ha il rilascio completo, rilascio on. Nelle condizioni di pH in cui il legame è stabile il rilascio è off. (Rilascio di tipo on/off) In questo esempio il farmaco è la doxorubicina che viene legata ad una nanoparticella d’oro e il legame chimico presenta un gruppo idrazone pertanto diventa instabile a pH acido quindi il farmaco si stacca dalla particella. Unico difetto è che quando andiamo a legare chimicamente il farmaco si altera la struttura, ogni volta che si fa della chimica sulle molecole del farmaco si può potenzialmente alterare le sue caratteristiche rendendolo inattivo. Questo vi permette un ottimo controllo del profilo di rilascio ma attenzione a non danneggiare il farmaco. Sintesi, nanoparticelle costituite da polimeri pH sensibili: - Sono le maggiormente utilizzate Possiamo usare polimeri pH sensibili che presentano gruppi acidi o basici che caricandosi in diverse condizioni di pH destabilizzano la struttura perdendo l’integrità della particella che rilascia il farmaco. Ferraro/Memeo - 12 Bionanotecnologie (Mattu) 17/03/2022 Rivestimenti di altre strutture Legami chimici pH sensibili che si destabilizzano in specifiche condizioni di pH in cui avverrà il rilascio. Miglior controllo di diffusione ma potenziale degradazione/inattivazione del farmaco. Smart polymer nanoparticles parte II Nanoparticelle intelligenti sensibili alla concentrazione di enzimi e alle condizioni ossido-riduttive dell’ambiente in cui vogliamo attivare il rilascio. Nanoparticelle sensibili agli enzimi: Ci sono alcuni enzimi presenti in siti patologici rispetto al tessuto in condizioni normali, ad esempio, in alcuni tipi di tumori, vi sono enzimi che degradano la matrice extracellulare creando spazio alle cellule tumorali, altamente proliferanti, e consentendo loro di staccarsi e spostarsi verso altri siti. Nel microambiente tumorale la presenza degli enzimi che degradano la matrice extracellulare è di supporto alle stesse cellule tumorali poiché consente solo di sopravvivere e metastatizzare in altri siti. I polimeri che presentano sensibilità alla concentrazione degli enzimi possiedono al loro interno delle sequenze che sono substrati per gli enzimi. Ad esempio, nella catena polimerica degli enzimi che degradano la matrice extracellulare, è presente una sequenza che viene degradata dallo specifico enzima quindi arrivando nel microambiente la sequenza verrà digerita, il polimero perderà di integrità e il farmaco verrà rilasciato. 1) Sequenze che sono substrati dell’enzima nella catena polimerica. 2) Si lega il farmaco alla particella usando un linker all’interno del quale è presente una sequenza degradabile dall’enzima. Quando quest’ultimo arriva degrada il linker e il farmaco viene rilasciato perché separato dalla particella che lo trasporta. Esempio con enzimi metalloproteasi della matrice MMP, ne esistono di diversi tipi in questo caso siamo interessati all’enzima MMP-2 poiché sono presenti in grandi quantità nelle metastasi polmonari di alcuni tumori. Si disegna un vettore multistadio che sfrutta due stadi di rilascio, il primo è caratterizzato da una microparticella a forma di disco con pori nanometrici. È stato Ferraro/Memeo 12 Bionanotecnologie (Mattu) 17/03/2022 dimostrato che la forma discoidale permette alle particelle di accumularsi nei microvasi sanguigni polmonari quindi, una volta iniettata, tende a rimanere incastrata nei polmoni. - Primo stadio di rilascio: trasporto del farmaco verso i polmoni, zona in cui è localizzata un’alta concentrazione di enzima MMP-2. Il secondo stadio di rilascio è una nanoparticella polimerica attaccata sopra la microparticella mediante un linker al cui interno è presente una sequenza peptidica degradata dall’enzima MMP-2. Quando in sistema arriva vicino alle metastasi gli enzimi romperanno il legame che tiene la nanoparticella attaccata sulla superficie della microparticella; quindi le microparticelle vengono rilasciate e portate all’interno delle cellule tumorali. Questo sistema a doppio stadio permette di aumentare la capacità del sistema di riconoscere le cellule tumorali presenti nei polmoni. Nel diagramma sottostante sono riportate le curve dei rilasci senza utilizzare l’enzima 40% (curva in verde). Aggiungendo l’enzima (curva in rosso) il rilascio viene accelerato arrivando all’80%. Negli animali vengono iniettate le nanoparticelle di controllo dentro le cellule tumorali situate nel polmone del topo, successivamente si analizzano le cellule polmonari utilizzando il citofluorimentro che consente di separare le cellule sane da quelle tumorali. In seguito, si osserva la concentrazione della nanoparticella, nel sistema non sensibile all’enzima (MSV) dentro la massa tumorale ci sono il 46,8% di cellule che presentano le nanoparticelle al proprio interno. Usando invece il sistema enzima sensibile (ESMSV) la concentrazione raggiunge il 64,6%. Questo sistema aumenta le particelle libere e la probabilità che le nanoparticelle entrino nelle cellule tumorali cresce rispetto al sistema senza sensibilità enzimatica. Gli enzimi che ci interessano non sono mai esclusivi del sito tumorale, ma sono presenti anche in altri siti dell’organismo, come il fegato. Se viene somministrata una nanoparticella nel sangue questa passerà per il fegato e se è enzima sensibile occorre considerare questo aspetto come nel seguente esempio. Ferraro/Memeo 12 Bionanotecnologie (Mattu) 17/03/2022 Nanoparticella di gelatina, componente della matrice extracellulare quindi substrato per gli enzimi che degradano la matrice. Gli enzimi MMP degradano la gelatina quindi una nanoparticella di questo tipo viene degradata da questi enzimi portando al rilascio di farmaco. Serve una strategia per proteggere la nanoparticella nel passaggio attraverso il fegato che contiene a sua volta gli enzimi MMP. Si sfruttano le cariche positive della gelatina che in specifiche condizioni di pH è un policatione. Il farmaco è la doxorubicina e si trova intrappolata tra le doppie eliche di un DNA artificiale. (La doxorubicina è un farmaco citotossico che funziona a livello del nucleo della cellula, inserendosi tra la doppia elica del DNA e inibendone la replicazione. Il DNA non si può replicare e la cellula muore) In questo caso si sfrutta la capacità della doxorubicina di inserirsi nella doppia elica di DNA con carica negativa che si lega al polimero di gelatina con carica positiva formando una particella chiamata NANOCOMPLESSO (CPX1). Un nanocomplesso si forma quando le cariche del polimero interagiscono con le cariche opposte del farmaco. Il CPX1 ha carica positiva perché la gelatina ingloba al suo interno il DNA. Questi complessi sono degradabili dagli enzimi MMP e siccome devono passare per il fegato si applica uno strato protettivo di alginato che presenta carica opposta rispetto alla gelatina e quindi si deposita sulla superficie. La nanoparticella è un complesso di gelatina e DNA a sua volta rivestita con un rivestimento di alginato pertanto chiamata complesso 2 (CPX2). Il rivestimento di alginato non è sensibile all’enzima MMP pertanto non viene degradato, inoltre presenta gruppi carbossilici e a questi viene legato un linker pH sensibile che contiene istidina. Al pH del fegato il linker è stabile quindi nel fegato tiene insieme le catene di alginato e il rivestimento rimane stabile sulla superficie del complesso 1. Per ciò nel fegato la particella di gelatina è protetta e gli enzimi non la possono degradare. Arrivando nel tumore il pH si abbassa, il rivestimento di alginato si destabilizza, viene liberata la particella di gelatina a sua volta degradata dagli enzimi presenti nel microambiente tumorale consentendo il rilascio di farmaco. Rimane un DNA estraneo Ferraro/Memeo 12 Bionanotecnologie (Mattu) 17/03/2022 e della cellula sono presenti numerosi enzimi che degradano in DNA estraneo chiamati dnasi, liberando la doxorubicina intrappolata nella catena. In questo esempio si crea una struttura enzima sensibile protetta in particolari condizioni di pH, passa inalterata attraverso il fegato e si destabilizza nella zona tumorale dove il farmaco viene rilasciato. Risultati grafici: Con il CPX1 di gelatina il farmaco va principalmente nel fegato quindi la particella non trasporta molto farmaco nel tumore. Con il CPX2 molto più farmaco arriva nel tumore e meno nel fegato che viene quindi protetto. Riassunto aspetti principali per nanoparticelle sensibili agli enzimi: - - Rispondono alla concentrazione degli enzimi che distingue sito patologico da sito normale. Gli stessi enzimi presenti nel sito patologico possono essere anche presenti in altri siti come avviene nel caso del fegato, quindi, bisogna disegnare le particelle al fine che non vengano degradate negli organi sani. Degradazione indesiderata nei siti sani. Redox-sensitive nanoparticles Particella intelligente che risponde alla concertazione di specie ossidanti o riducenti nel sito patologico. Nei tessuti normali all’interno e all’esterno della cellula ci sono diverse concertazioni di specie ossidanti e riducenti, questo genera un potenziale ossidativo. In particolare, dentro le cellule c’è una maggiore concentrazione di glutatione che è una specie riducente, abbreviata con la sigla GSH. Questo accade perché il GSH riduce lo stress ossidativo che le cellule subiscono. Le cellule tumorali vivono in ambienti particolarmente stressanti perché sottoposte ad attacco da parte di specie ossidanti come i radicali liberi o le altre specie reattive dell’ossigeno. Per proteggersi utilizzano agenti riducenti come, ad esempio, il GSH che riduce l’azione delle specie ossidative e passa dalla forma ridotta alla forma ossidata. Il glutatione agisce sulla specie ossidativa riducendola, mentre si ossida diventando GSSG (glutatione disulfide). Quando la cellula Ferraro/Memeo 12 Bionanotecnologie (Mattu) 17/03/2022 viene attaccata dalle specie ossidanti il GSH interviene, protegge la cellula e si trasforma in GSSG; pertanto, il rapporto di concentrazione tra GSH e GSSG fornisce l’informazione di quando è sana la cellula. - - Se il rapporto GSH/GSSG è basso significa che il denominatore è alto quindi la concentrazione di GSSG è maggiore quindi molto GSH si è ossidato per proteggere la cellula che quindi si trova in condizione di alto stress ossidativo. Se invece il rapporto GSH/GSSG è alto significa che il numeratore è basso quindi più GSH si trova nella sua forma ridotta, pertanto, non si sta ossidando. In conclusione, lo stress ossidativo a cui la cellula è sottoposta è basso. GSH ha funzione di protezione della cellula e in particolare la sua concentrazione all’interno è circa 2-10 mM mentre all’esterno è un ordine di grandezza inferiore e vale circa 2-20 µM. Nell’ambiente tumorale la concentrazione di GSH è ancora più alta perché la cellula è maggiormente sottoposta a stress e produce GSH per difendersi. Il GSH può essere sfruttato per attivare un rilascio inserendo nella struttura della particella un legame ridotto dal GSH come il legame disulfide (S-S). Inserendo nel polimero questo legame riuscendo a portare la particella dentro la cellula il GSH presente all’interno tenderà a ridurre il legame creandone la rottura e causando il rilascio del farmaco. La riduzione di questo legame da parte del GSH attiva il rilascio del farmaco all’interno della cellula. Le particelle redox sensibili presentano un legame disulfide ridotto dal GSH e devono essere trasportate all’interno della cellula prima che avvenga la reazione redox, pertanto, queste particelle sono anche in grado di fare targeting attivo, cioè hanno la capacità di riconoscere i recettori presenti sulla cellula bersaglio in cui vengono inserite per poi attivare i meccanismi di rilascio triggerati dal GSH. Esempio di particella che è una sorta di micella costituita da una porzione idrofobica ed una idrofilica, tra le due porzioni è inserito un link che contiene un legame disulfide, ridotto per azione del GSH. A questo punto la parte idrofilica si staccherà da quella idrofobica e la micella perderà stabilità a causa della separazione delle due componenti. Dentro la particella si inserisce un farmaco, mentre sulla superficie vengono applicati acido ialuronico, che riconosce recettori presenti nelle cellule tumorali ed è l’agente di targeting attivo. La particella viene iniettata e si sfrutta l’effetto EPR per raggiungere la zona tumorale, in seguito l’acido ialuronico sulla superficie interagisce con i recettori sulla cellula tumorale (arancione) permettendo alla particella di venire Ferraro/Memeo 12 Bionanotecnologie (Mattu) 17/03/2022 trasportata all’interno in cui la particella incontra alta concentrazione di GSH che riduce il legame, la particella perde interamente di stabilità e il rilascio del farmaco viene massimizzato dentro la cellula. Dal profilo di rilascio del farmaco è possibile osservare che usando le particelle di controllo, formate dalla micella senza legame disulfide (HADOCA), non rilascia niente anche ad alte concentrazioni di GSH, risultando insensibile al glutatione. La particella invece provvista del legame ss (HA-ss-DOCA) sensibile al GSH ha un rilascio accelerato per concentrazioni di GSH pari a quelle intracellulari (10-20 mM), mentre non rilascia quasi nulla per concentrazioni basse di circa (10 µM) pari alla condizione extracellulare. Questo sistema di rilascio accelera nelle condizioni intracellulari, conclusione visibile anche nell’esperimento in vivo dove le micelle che si rompono nelle cellule tumorali rilasciano molto più farmaco rispetto a quelle di controllo. Esempio (non da ricordare) : Modalità di trasporto combinato di paclitaxel, farmaco antitumorale, e di un farmaco a base di RNA. La struttura è simile alla precedente, l’acido ialuronico legato al PEI, policatione che serve per complessare l’RNA e una struttura tenuta insieme dai legami disulfide. La particella si destabilizza dentro la cellula rilasciando due farmaci, è possibile quindi rilasciare più di un farmaco contemporaneamente migliorando la sopravvivenza degli animali che presentano crescita del tumore vicina allo zero. Ferraro/Memeo 12 Bionanotecnologie (Mattu) 17/03/2022 Riassunto: nanoparticelle redox sensibili - - Si sfrutta la differente concentrazione di specie ossidanti o riducenti tra l’interno e l’esterno della cellula. In questo caso si sfrutta la concentrazione di GSH che è una specie riducente presente in grande quantità all’interno delle cellule e in proporzioni ancora maggiori nelle cellule tumorali. Inserendo nei polimeri sequenze che vengono ridotte per azioni del GSH il polimero si degraderà all’interno della cellula. È necessario trovare una giusta strategia di riconoscimento del target e trasportare la particella dentro la cellula dove potrà degradarsi. Esempio: Particella che risponde a due stimoli, in questo caso GSH che presenta gruppi amminici quindi sensibilità al pH. Pertanto, la particella può essere sfruttata per degradarsi all’interno della cellula e rilasciare farmaci per effetto del pH. In questo caso si utilizza un siRNA, farmaco a RNA, che interagisce con il gruppo amminico carico positivamente. La catena carica positivamente e il farmaco a RNA con cariche negative, il farmaco rimane intrappolato per effetto dell’interazione tra cariche. L’altra porzione del polimero idrofobico e per legare le due parti si inserisce un legame disulfide. Nella cellula si romperà quest’ultimo legame, destabilizzando la micella e causando la fuoriuscita del farmaco inserito nella parte idrofobica. Il gruppo amminico si caricherà spingendo via l’RNA portando al contemporaneo rilascio di RNA dovuto al pH e il rilascio del farmaco idrofobico dovuto alla rottura del legame disulfide. Serio/Palladino 13 Bionanotecnologie (Ciardelli) 23/03/2021 I POLIMERI Argomenti I polimeri sono dei materiali che rivestono un ruolo importante nel campo delle bionanotecnologie. Gli argomenti che verranno trattati sono: • • • caratteristiche generali dei polimeri: cosa sono i polimeri e come vengono denominati; reazioni di polimerizzazione: come vengono sintetizzati i polimeri, quali sono le reazioni che portano all’ottenimento di materiali polimerici; valutazione delle caratteristiche meccaniche nei substrati polimerici (cenni): le proprietà meccaniche dei materiali sono una proprietà fondamentale nella progettazione di sistemi che si devono interfacciare con l’ambiente cellulare. Le cellule possiedono dei meccanosensori, attraverso i quali sono capaci di “sentire” le proprietà meccaniche dei dispositivi con cui cono a contatto. Definizione Il nome “polimeri” deriva dal greco “polymerḗs”, che significa “molte parti”. Sono sostanze che possono essere sia di origine organica (la più grande famiglia di polimeri) che inorganica (in particolare i siliconi). Ciò che caratterizza un materiale organico rispetto ad uno inorganico è la presenza di atomi di carbonio. I materiali polimerici possono essere di origine sintetica, cioè realizzati artificialmente tramite reazioni di polimerizzazione, oppure di origine naturale, i cosiddetti biopolimeri (ad esempio proteine, polisaccaridi, acidi nucleici). La caratteristica dei polimeri è quella di essere composti da un gran numero di unità ripetitive che, secondo IUPAC1, sono dette unità ripetenti costituzionali (CRU, Constitutional Repeating Unit), o più comunemente unità monomeriche o monomeri. Per i polimeri si vedrà che spesso si tende a preferire una nomenclatura meno standardizzata, ma più tradizionale. Un monomero è una sostanza che, sottoposta ad una reazione di polimerizzazione, dà il polimero. Nelle reazioni di polimerizzazione si formano dei legami chimici in genere covalenti che tengono insieme i monomeri in una lunga catena, che in genere è una catena lineare, ma può essere anche ramificata o reticolata. Questa estrema variabilità della struttura chimica dei polimeri sia a livello di monomeri utilizzabili per sintetizzarli, sia a livello di concatenamento dei monomeri nel polimero finale, permette di produrre una quantità di materiali con una fortissima ampiezza di possibili settori applicativi. 1 ente che definisce le regole per la nomenclatura di tutti i composti chimici, univoca e riconosciuta da tutti 1 Serio/Palladino 13 Bionanotecnologie (Ciardelli) 23/03/2021 Principi della chimica dei polimeri La singola molecola che costituisce un polimero è molto grande, tanto da essere chiamata macromolecola. Queste lunghe molecole sono come un treno costituito da tanti vagoni e questi vagoni sono proprio le unità monomeriche tra loro concatenate. Indicando questi monomeri con una lettera B, i polimeri sono una serie di vagoni tutti uguali B. All’inizio e alla fine del convoglio ci sono delle particolarità, i gruppi terminali A (sia in cima che in fondo alla catena), che differiscono un po’ dall’unità monomerica. ABBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBA A = GRUPPO TERMINALE B = UNITA’ STRUTTURALE (monomero) Le unità B sono tenute insieme da legami covalenti. La maggior parte dei polimeri è di natura organica, cioè contiene carbonio in catena, pochi sono inorganici. Esistono, anche se pochi, polimeri di natura mista, che contengono sia sostanze organiche che inorganiche. Classificazione I polimeri sono costituiti da molecole molto grandi, che quindi hanno un alto peso molecolare, quello che verrà successivamente chiamato alto grado di polimerizzazione. Avendo un monomero A e prendendone n moli (o n molecole) si ottiene il polimero in cui ci sono n unità di A in catena: il grado di polimerizzazione è dato dal valore di n. Il peso molecolare del polimero è uguale al peso molecolare di A moltiplicato per n, tato più alto è n tato più alto è il peso molecolare. Quando nella macromolecola ci sono poche unità monomeriche, allora si parla di oligomeri. Le macromolecole non sono molto lunghe e il peso molecolare è abbastanza alto ma non troppo perché n è comunque minore di 10. In maniera molto approssimata: • • • se n è compreso tra 10 e 100 si parla bassi polimeri (polimeri piccoli); se n è compreso tra 100 e 1000 si parla di medi polimeri; con n maggiore di 1000 si parla di alti polimeri. Le unità strutturali sono concatenate tra loro in maniera diversa: • • • polimero lineare: i monomeri sono uno accanto all’altro; polimero ramificato: dalla catena principale si dipartono delle ramificazioni; polimero reticolato: polimeri concatenati a rete, le catene lunghe sono tra loro collegate da segmenti più corti trasversali. 2 Serio/Palladino 13 Bionanotecnologie (Ciardelli) 23/03/2021 Copolimeri Se il polimero è la concatenazione di unità monomeriche B tutte uguali fra loro si parla di omopolimeri. -BBBBBBBBBBBBBBBBBBBBBBBBBBBBBÈ possibile che la catena macromolecolare sia costituita da monomeri di natura diversa, ad esempio B e A. Questi tipi di polimeri si chiamano copolimeri e sono prodotti per polimerizzazione in genere (ma non sempre) simultanea di due o più monomeri. -BBBBAAAAAAAABBABBBAAAAAAAABBQuesto introduce un elemento di variabilità in più, c’è la possibilità che i monomeri siano distribuiti lungo la catena con delle regole statistiche diverse: • • • • alternato: il copolimero è costituito da unità A e B alternate tra loro; statistico lineare: A e B sono distribuiti lungo la catena con distribuzione statistica casuale (random), lineare perché è presente solo una catena; a blocchi: ci sono lunghe catene di A seguiti da blocchi di B, se i blocchi sono molto lunghi sembrano delle miscele di omo-A e omo-B; ad innesto (graft): c’è una catena principale di un monomero B con ramificazioni costituite di A. Formule Quando si scrive la formula di un polimero, in genere si scrivono solo le sue unità monomeriche, trascurando i polimeri terminali perché non sono rilevanti o non si conoscono con precisione. Ad esempio, il polietilene è ottenuto da un monomero che si chiama etilene (alchene con 2 atomi di carbonio): (-CH2-CH2-)n, dove n è il numero di unità ripetenti in catena, detto anche grado di polimerizzazione. 3 Serio/Palladino 13 Bionanotecnologie (Ciardelli) 23/03/2021 Nomenclatura Come nei composti chimici organici e non, bisogna dare un nome anche ai polimeri. Esistono vari metodi, alcuni molto tradizionali e comuni, come la bakelite (resina fenolo-formaldeide) e il nylon. La nomenclatura corrente più utilizzata e comune è quella di dare al polimero il nome del monomero preceduto dal prefisso poli-, come nell’esempio precedente del polietilene. Se il monomero fosse l’acido acrilico, si avrebbe il poli(acido acrilico). La nomenclatura IUPAC, invece, utilizza il nome dall’unità che si ripete n volte: ad esempio, nel polietilene l’unità che si ripete non è tanto -CH2-CH2-, ma solo -CH2-; si può scrivere quindi come (-CH2-)m, dove m=2n. La IUAPAC, dunque, chiama questo polimero polimetilene, dove metilene è il gruppo -CH2-. Lista di confronto tra il nome corrente e il nome IUPAC. Ci sono due differenze: • • se l’unità ripetente del monomero è simmetrica (come nel caso del polietilene), la IUPAC fa riferimento all’unità vera che si ripete; al monomero viene dato il nome non convenzionale, cioè il nome IUPAC della molecola organica che costituisce il monomero. Ad esempio, il polistirene è un polimero ottenuto dalla polimerizzazione della molecola in immagine a destra, lo stirene. Lo stirene è, in realtà, un etilene con un benzene (gruppo fenilico) al posto di un idrogeno, quindi il suo nome IUPAC è poli(1-feniletilene). Altro esempio, il polipropilene è ottenuto dalla polimerizzazione del propilene, che non è altro che un etilene con un gruppo metile al posto un idrogeno, quindi diventa poli(1-metiletilene) nella nomenclatura IUPAC. Il nome commerciale del poli(tetrafluoroetilene) è teflon, in nomenclatura IUPAC diventa poli(difluorometilene) perché il polimero è (-CF2-)m. Il poliacrilonitrile diventa poli(1-cianoetilene) perché ha un gruppo C≡N. Altri gruppi utili da sapere: gruppo vinilico: CH2=CHgruppo acrilico: CH2-C-COOH 4 Serio/Palladino 13 Bionanotecnologie (Ciardelli) 23/03/2021 Laddove c’è un alchene come monomero (polistirene, poliisobutilene, polipropilene…) si parla anche di poliolefine, dove olefina è un termine molto antiquato per indicare gli alcheni, che però nella nomenclatura polimerica è stato mantenuto, questo termine può essere trovato. Nel caso dei copolimeri si ha un elemento in più di variabilità che deve essere definito anche tramite la nomenclatura, quindi bisogna indicare nel nome il tipo di distribuzione dei due monomeri nel polimero. Prendendo, ad esempio, un copolimero dello stirene col metacrilato si hanno varie possibilità: • • • • statistico: -co- oppure stat o ran (per random), spesso usato anche quando non si hanno informazioni sul tipo di distribuzione, esempio: poli(stirene-co-metil metacrilato); alternato: -alt-, esempio poli(stirene-alt-metil metacrilato); a blocchi: -block-, esempio polistirene-block-poli(metil metacrilato); ad innesto: -graft-, esempio polistirene-graft-poli(metil metacrilato); Negli ultimi due è ripetuto due volte poli- perché quando si ha una situazione a blocchi, poli-A e poli-B. Esistono anche in questo caso dei nomi commerciali comuni, come moplen = polipropilene, nomex= nylon, mylar= film a base di poliestere, orlon = fibre acriliche. Il polietilentereftalato (PET) è costituito da monomeri con un gruppo etilico, un gruppo estere e acido tereftalico COOH-benzene-COOH. 5 Serio/Palladino 13 Bionanotecnologie (Ciardelli) 23/03/2021 Dimensione delle macromolecole Si è detto che dal grado di polimerizzazione n si ricava il peso molecolare del polimero. Una sostanza chimica normalmente ha un peso molecolare che identifica tutte le molecole di un campione. In un campione polimerico, invece, si hanno molecole di lunghezza diversa e il peso molecolare che si legge sull’etichetta è in realtà il valore medio dei pesi molecolari delle varie molecole contenute all’interno, che hanno appunto lunghezze diverse. Questa caratteristica di non unitarietà della grandezza molecolare dei polimeri è detta polidispersità e il valore che viene letto corrisponde al valore di peso molecolare teorico di un polimero costituito da molecole della stessa grandezza, cioè come se fosse monodisperso. Salvo casi eccezionali, un polimero è sempre polidisperso e quindi caratterizzato da una distribuzione di pesi molecolari, con una propria curva di distribuzione. Il massimo di questa curva è il valore più vicino a quello reale della misura. In ordinata si ha il numero di moli ni della specie i-esima che ha un certo peso molecolare e in ascissa si ha il valore di peso molecolare. Dal punto di vista dell’incidenza in peso sul peso totale del campione, la specie iesima pesa Wi, che vale ni*PMi. Ci sono varie medie che derivano da questo tipo di distribuzione, la più famosa delle quali è il cosiddetto peso molecolare medio numerale, che è un numero che più si avvicina al concetto di peso molecolare che si ha per le molecole monodisperse a basso peso molecolare. 6 Vecchio/Zagaria 14. BIONANO (Ciardelli) 24/03/2022 Nella lezione scorsa si è visto che i materiali polimerici hanno una distribuzione dei pesi molecolari. Per cui il materiale polimerico reale non ha un unico peso molecolare come i composti a basso peso molecolare ma ha una distribuzione come mostra la curva in figura. Pertanto, come in tutte le distribuzioni si possono definire delle medie. La prima media è chiamata peso molecolare medio numerale (Mn): è la media ponderata rispetto al numero di moli. Questo valore è quello più vicino al concetto di peso molecolare per i composti non polimerici. Numericamente è dato dalla sommatoria del numero di moli N i, che hanno un certo peso molecolare M i, per Mi, diviso il numero totale di moli (sommatoria di N i): Mn può essere scritta con due espressioni diverse ricordando che la quantità in peso molecolare è wi=NiMi. Mn viene indicata anche con la notazione cerchiata dove la sbarra indica il concetto di media e l’indicatore n definisce il tipo di media. Esistono altre medie che possono avere una certa importanza ma ne viene presentata solo un’altra che è il peso molecolare medio ponderale (Mw) in cui viene fatta la stessa media ma non più rispetto al numero di moli della specie i-esima con peso molecolare M i bensì rispetto alla quantità in peso wi. Numericamente equivale alla sommatoria della quantità in peso wi per il peso molecolare Mi (quindi media non più rispetto al numero di moli ma rispetto al peso), diviso il peso totale (sommatoria di wi): Mw può essere scritta anche come rapporto tra ∑NiMi2 diviso ∑ NiMi come se fosse una media di ordine superiore. Nei materiali polimerici questo ha un interesse anche dal punto di vista fisico, perché dal punto di vista grafico la differenza tra il peso molecolare M n e Mw (evidenziata dalla freccia rossa nella curva) rende l’idea di quanto è larga la curva (di quanto è estesa la distribuzione) . In prossimità di PM n si trova il massimo della curva (indicato dalla freccia blu) anche se in realtà non 1 Vecchio/Zagaria 14. BIONANO (Ciardelli) 24/03/2022 essendo una gaussiana simmetrica si trova leggermente verso destra. Poi si possono osservare anche altre medie come quella viscosimmetrica PMv, centrifuga PMz e ultracentrifuga. Ha una certa importanza anche il rapporto tra la media Mw e Mn che è il numero α, chiamato indice (o grado) di polidispersità che dice quanto è allargata la curva e quanto sono distribuiti ampiamente i pesi molecolari. In un polimero monodisperso idealmente α=1, ma in realtà nei polimeri reali questo indice varia tra 1.5 < α < 2.5 (per polimeri commerciali). Dividendo le medie numerale M n e ponderale Mw per il peso molecolare dell’unità monomerica M o ottengo il grado di polimerizzazione. Grado di polimerizzazione medio numerale: Dove n indica mediamente il numero di unità polimeriche nella catena. Grado di polimerizzazione medio ponderale: Dove Mo è il peso molecolare dell’unità ripetente. Scrivendo ad esempio la formula del polietilene, n non è altro che l’Xn presente nella formula del grado di polimerizzazione medio numerale. Mentre se si prende Mw si ottiene il grado di polimerizzazione medio ponderale. M o è il peso molecolare dell’unità ripetente o monomerica (attenzione non necessariamente del monomero perché non sempre si ritrova tutto il monomero, questo si vedrà meglio dopo). Il peso molecolare medio, quindi sia M n che Mw che la polidispersità, influenzano alcune proprietà del polimero, quali: ▪ ▪ Proprietà meccaniche; Lavorabilità del materiale. Si immagini di voler realizzare un oggetto in materiale polimerico come uno spruzzino o una bottiglia. Allora sarà necessario fondere il polimero (si porta allo stato fuso) e poi spararlo in uno stampo che verrà raffreddato. Aperto lo stampo si ottiene l’oggetto. Questo è il motivo per cui nelle bottiglie nel mezzo si può osservare una sorta di separazione, un punto rigido dovuto al fatto che le due metà dello stampo sono state unite. Per fare ciò bisogna fondere il polimero o in certi casi, come si fa nelle fibre tessili, si può sciogliere nel solvente e poi filarlo. In entrambi i casi bisogna fare in modo che il polimero scorra e quindi sia abbastanza viscoso da aderire allo stampo ma non troppo viscoso da non fluire all’interno dello stampo. Il peso molecolare influisce sulla lavorabilità, cioè il fatto che poi con questo polimero si possano 2 Vecchio/Zagaria ▪ 14. BIONANO (Ciardelli) 24/03/2022 ottenere dei prodotti finali che abbiano un’utilità e ovviamente nel caso di soluzioni influenza la solubilità; infatti, catene molto lunghe sono più difficili da solvatare e portare in soluzione rispetto a catene più corte. Laddove c’è una cristallizzazione, ovvero dove il polimero ha delle zone ordinate nel cristallo il peso molecolare medio influenza la cinetica di cristallizzazione e la percentuale di cristallinità del polimero finale. Come si è appena detto il peso molecolare medio ha un effetto sulle proprietà meccaniche (e sulla viscosità in fase di lavorazione) per cui esisterà un intervallo ottimale di peso molecolare medio (area gialla) all’interno del quale i polimeri sono più lavorabili. In genere questo intervallo va da 104 a 107 e con un intervallo più ideale che va da 20000 e 200000 g/mol. Per valori più piccoli (<104) si hanno delle proprietà fisiche scadenti (la bottiglia non avrebbe consistente e sarebbe floscia) e per valori troppo elevati (>107) non si riuscirebbe a realizzare la bottiglia perché il fluido sarebbe troppo viscoso e non scorrerebbe nel macchinario. Effetto sulle proprietà meccaniche (e sulla viscosità in fase di lavorazione) e intervallo ottimale di peso molecolare medio: Generalmente il peso molecolare ottimale è tra 20000 e 200000 g/mol. Relazione proprietà-struttura Gli aspetti dal punto di vista più molecolare che influenzano le proprietà fisico meccaniche dei polimeri (e quindi anche la loro lavorabilità e processabilità), oltre il peso molecolare medio appena visto, sono: ▪ Flessibilità intrinseca delle macromolecole. Indica la possibilità di rotazione attorno ai legami C-C dello scheletro della molecola. Questo concetto probabilmente è già chiaro nei composti a basso peso molecolare. Si prenda ad esempio l’etano C2H6 e si guardi lungo il legame che unisce il carbonio all’altro carbonio (come indica l’occhio in figura). Questa visione può essere rappresentata attraverso le proiezioni di Newman (disegnata a destra) dove il cerchio è il legame chimico carbonio-carbonio. Quindi alle due estremità ci sono due carboni, uno verso il lettore e l’altro dietro il foglio, in rosso ci sono i tre idrogeni prossimi al punto da cui si sta osservando e quelli azzurri dietro che stanno dietro. 3 Vecchio/Zagaria 14. BIONANO (Ciardelli) 24/03/2022 Immaginando di ruotare di 60° il legame carbonio-carbonio si ottiene quella che viene chiamata configurazione eclissata che è energeticamente sfavorita perché gli idrogeni disegnati interferiscono tra di loro (quelli azzurri ostacolano quelli rossi). In un polimero questo effetto è moltiplicato per tutti i legami. Ci saranno quindi delle formazioni più stabili di altre. Per esempio la n1 completamente estesa corrisponde ad avere una configurazione sfalsata lungo tutti i legami. Però se si ha a disposizione un’energia sufficiente ci possono essere delle libere rotazioni che possono indurre la macromolecola o ad assumere altre conformazioni ordinate tipo l’elica (n2) e la catena ripiegata (n3) oppure soprattutto ad elevate temperature una situazione conformazionale che si chiama gomito statistico (random coil in inglese) che è completamente disordinata (n4). La conformazione indica la disposizione che possono assumere le diverse catene macromolecolari in conseguenza della rotazione lungo gli assi dei vari legami covalenti della catena. In questo caso per semplicità si è visto come esempio il polietilene ma in presenza di un sostituente le cose possono cambiare. ▪ Intensità delle forze intermolecolari (van der Waals, dipolo-dipolo, ponti a idrogeno), espressa come densità di energia coesiva. Si possono avere delle interazioni di van der Waals idrofobiche in presenza di gruppi aromatici, dipolo-dipolo se si hanno dei gruppi carichi oppure l’esempio più classico delle interazioni dipolari sono i legami ad idrogeno (dovrebbe essere noto che αelica delle proteine è tenuta insieme proprio da legami ad idrogeno tra gli nh e i co in catena del legame peptidico); 4 Vecchio/Zagaria ▪ ▪ 14. BIONANO (Ciardelli) 24/03/2022 Regolarità strutturale: avere zone ripetenti tutte uguali influenza la cristallizzabilità. Per la regolarità strutturale sono molto importanti i concetti di costituzione e configurazione cioè come sono disposti nello spazio i gruppi laterali; Peso molecolare medio. La struttura dei polimeri determina le loro proprietà: - Costituzione: successione degli atomi o legami di una macromolecola, ovvero com’è fatta la molecola stessa; Conformazione (3D): disposizione delle diverse categorie macromolecolari per rotazioni lungo gli assi del legame singolo covalente; Configurazione (3D): disposizione nello spazio dei gruppi laterali. Se si prende ad esempio, invece del polietilene, il propilene e si dispone la catena in una conformazione completamente estesa se si troveranno tutti i sostituenti (gruppi metili in questo caso), colorati in rosso nella figura, da una parte (verso il lettore) il polimero di dice isotattico. Ricapitolando quando un polimero in configurazione a zig-zag (completamente estesa) presenta tutti i sostituenti nello stesso ordine il polimero si dice isotattico e avrà quindi una regolarità strutturale tale che per esempio avrà una maggiore facilità a cristallizzare. Volendo continuare l’analogia con i composti a basso peso molecolare si parla di configurazione negli atomi di carbonio chirali (disegno a sinistra del polimero isotattico) dove avrò un idrogeno, metile e poi le altre due catene. In effetti non è un vero carbonio chirale perchè le due catene sono talmente lunghe che le posso considerare uguali. Però dal punto di vista della stereochimica è come se fossero diverse e dove c’è il carbonio è come se si avesse un centro chirale. Se invece, sempre per analogia i centri chirali fossero invertiti, cioè si trovassero i metili (in rosso) in parti opposte in maniera alternata si avrebbe sempre una struttura regolare che si chiamerà polimero sindiotattico. Qualora si avesse una distribuzione casuale in cui si trovano i metili un poco da una parte e un poco dall’altra allora si parla di polimero atattico. 1) Isotattica: quando un polimero - nella conformazione zig-zag – se visualizzato lungo i legami della catena principale, presenta i sostituenti nello stesso ordine sterico; 2) Sindiotattica: i sostituenti presentano un arrangiamento alternato; 3) Atattica: la stereochimica è random. 5 Vecchio/Zagaria 14. BIONANO (Ciardelli) 24/03/2022 Viene riportato come esempio il polistirene che è analogo al polipropilene visto prima. Il polimero si dirà: isotattico quando i fenili sono disposti tutti su un lato (evidenziati in giallo), sindiotattico quando i fenili sono disposti in parti opposte (evidenziati in verde) e atattico quando i fenili (evidenziati in blu) sono disposti in maniera casuale (in questo caso prima a sinistra poi a destra poi due a sinistra ecc) . Quindi questa è una classificazione che si basa sulla regolarità strutturale. Adesso viene analizzato un altro tipo di classificazione che si basa sempre sulla struttura dei polimeri che è la differenza tra polimeri termoplastici e reticolari. I polimeri termoplastici possono essere processati scaldandoli oltre una certa temperatura, portarli allo stato fluido, dargli una forma che poi viene fissata congelata per raffreddamento. Come si era già accennato questo può essere fatto sia riscaldando sia sciogliendo il polimero in soluzione (in quel caso si dovrà scaldare per rimuovere il solvente). Questi processi possono essere teoricamente ripetuti all’infinito e sono alla base per esempio dei processi di riciclo. Il pet che si usa per le bottiglie può essere rifuso e usato per fare altre bottiglie o altri oggetti. In realtà tutti questi passaggi causano la degradazione del polimero per cui alla fine il suo peso molecolare diventa talmente basso che non può essere riutilizzato più. I polimeri reticolati sono polimeri in cui ci sono punti di legame tra le catene polimeriche trasversali. Si ha una situazione come quella rappresentata nell’immagine in cui si hanno delle reti. Per cui non si riesce né a sciogliere questi polimeri né a fondere perché non si riesce ad allontare all’infinito le catene perché possono scorrere come un fluido oppure essere disciolte completamente, solvatate. Il processo di conferimento della forma è contemporaneo al processo di reticolazione, per cui una volta formato l’oggetto non è più possibile modificarlo, infatti questi materiali sono riutilizzabili ma non riciclabili. 6 Vecchio/Zagaria 14. BIONANO (Ciardelli) 24/03/2022 All’interno dei polimeri termoplastici si possono distinguere quelli completamente amorfi che non hanno parti cristalline da quelli che vengono chiamati semicristallini che hanno una certa componente cristallina. Polimeri termoplastici amorfi. Le catene polimeriche di questo tipo non sono sufficientemente ordinate per formare domini cristallini per cui di fatto si ritrovano delle catene in conformazione di gomito statistico random coil. Questi materiali al di sotto di una certa temperatura non hanno mobilità molecolare per cui questi gomitoli sono fissati in quella specifica conformazione; il polimero è come se fosse un vetro. Il vetro è l’unico solido che conosciamo amorfo mentre tutti gli altri solidi sono cristallini. Questo stato dei polimeri al di sotto di una certa temperatura è chiamato solido vetroso. Quindi un solido vetroso in cui la configurazione random coil è congelata. La temperatura in cui c'è il passaggio di transizione da uno stato vetroso a uno stato sempre amorfo ma fluido viene detta temperatura di transizione vetrosa Tg dove g sta per glass in inglese. Al di sopra di questa temperatura il polimero pian piano diventa fluido e ci sono più possibilità di modifica conformazionale, possono cioè avvenire quelle rotazioni dei legami di cui si parlava prima e le catene scorrono le une sulle altre tramite scorrimenti che vengono detti plastici, cioè scorrimenti che non vengono recuperati rimuovendo il carico (una volta subiti non si torna più indietro). Se il modello meccanico per una trasformazione elastica è una molla, in questo caso sarà uno smorzatore. Polimeri termoplastici semicristallini. Non si troverà mai un polimero che è al 100% cristallino ma un polimero che insieme alle zone random coil presenta delle regioni ordinate. La parte rossa si comporta esattamente come i polimeri amorfi in cui al di sotto della Tg è un vetro e al di sopra della Tg è un fluido plastico. La parte cristallina in blu ha anch’essa una termperatura caratteristica Tm che corrisponde alla temperatura di fusione dei solidi inorganici cristallini. Osservando al miscroscopio la fusione di un cristallo si vede il cristallo che fa la rifrazione della luce e quando arriva da una certa temperatura non si vede più nulla perché il cristallo si è fuso. Questo serve anche per determinare la purezza di un composto. Nel caso dei polimeri questa cosa non così netta: scald ando si vede la trasformazione da solido a fuso in un intervallo di temperature. Si chiama Tm dove m sta per melting che significa fusione in inglese. Anche superata la Tm in questi polimeri si possono avere scorrimenti plastici. Ricapitolando i polimeri cristallini sono costituiti da due fasi distinte: una fase amorfa e una cristallina. - La fase amorfa è caratterizzata dalla temperatura di transizione vetrosa Tg sotto la quale si ha un vetro e al di sopra della quale si ha uno stato gommoso che diventa via via più fluido. La fase cristallina è solida in tutta la regione fino alla Tm oltre la quale diventa un fluido. E’ chiaro che se si vuole lavorare un polimero termoplastico semicristallino bisogna lavorare abbastanza di sopra della Tm. Quindi Tm è rappresentativa di un passaggio di stato, da uno stato ordinato, il solido cristallino, ad uno stato disordinato, il liquido (altamente viscoso) . 7 Vecchio/Zagaria 14. BIONANO (Ciardelli) 24/03/2022 La transizione vetrosa è influenzata dalla costituzione molecolare del polimero. Nel dettaglio, il suo aumento è legato alla presenza di gruppi pendenti ingombranti, gruppi rigidi in catena come 1,4-fenilene come nel pet, al simmetria di catena, presenza di gruppi polari o la presenza di reticolazioni. Tutti gli aspetti contrari come i gruppi pendenti flessibili, gruppi polari e situazioni di dissimmetria provocano l'abbassamento della temperatura di transizione vetrosa. Un modo comune per abbassare la temperatura di transizione vetrosa dei polimeri è quello dell’aggiunta di plasticizzanti o plastificanti che sono sostanze a basso peso molecolare che vanno a inserirsi alla massa polimerica e quindi aumentano l’irregolarità strutturale. Questo serve per farli diventare più maneggievoli: il caso più caratteristico è quello del PVC che sarebbe un polimero rigido a temperatura ambiente e aggiungendo il plastificante diventa un polimero flessibile che può essere utilizzato anche in altre applicazioni. Per quanto riguarda invece la cristallinità questa è funzione della regolarità strutturale, la quale rappresenta un aspetto dinamico. Questo è un aspetto termodinamico cioè la struttura del polimero dal punto di vista chimico è regolare allora si avrà una maggiore facilità nel realizzare strutture ordinate che possono cristallizzare. Quelle indicate dalla freccia nella figura si chiamano lamelle cristalline e sono zone ordinate di catena che si organizzano fra loro. La flessibilità delle catene rende conto della velocità con cui il polimero può cristallizzare: tanto più il polimero è flessibile tanto più riesce a trovare le conformazioni giuste per cristallizzare. Si può per esempio indurre una maggiore cristallizzazione raffreddando un polimero dal fuso in maniera più lenta, dandogli più tempo per trovare l'ordine cristallino. Questo invece è un fattore cinetico. La cristallinità della percentuale di un campione polimerico può variare significativamente in funzione di quella che si chiama la sua storia termica perché man mano a mano che questa cambia, cioè per esempio se un polimero è stato raffreddato velocemente si può trovare una cristallinità minore. Raffreddamenti molto veloci possono portare adirittura ad una cristallizzazione nulla che si chiama quenching. 8 Vecchio/Zagaria 14. BIONANO (Ciardelli) 24/03/2022 Ci sono dei valori medi di cristallinità dei polimeri che variano seconda della loro costituzione. Per esempio il PET (politetrafluoroetilene) ha un grado di cristallinità del 60%, il PTFE che è molto regolare e ha degli atomi di fluoro piccoli come sostituenti riesce a cristallizzare molto efficacemente e ha un grado di cristallinità dell’ 80% e infine il Nylon 6-6 ha un grado del 50%. Questi valori medi sono variabili in funzione degli aspetti di cui si è parlato prima. I polimeri reticolati hanno un comportamento piuttosto diverso. Non sono termolabili in quanto il loro comportamento alla temperatura è diverso da quello dei termoplastici. Dal punto di vista chimico hanno dei punti evidenziati in azzurro nella prima figura in cui ci sono legami covalenti tra le catene polimeriche (tra diverse catene polimeriche). In particolare, non ci sono solo legami lungo la catena, ma anche legami Intercatena che si chiamano punti di reticolazione. E’ chiaro che questi punti di richiamo limitano gli scorrimenti di tipo viscoso di tipo plastico perché creano degli impedimenti tra le catene e soprattutto per i segmenti di catena che sono compresi tra i punti di reticolazione. Ovviamente non hanno tutti lo stesso comportamento ma questo varierà in funzione della densità delle reticolazioni cioè del numero di reticolazione presenti; maggiore è il numero di reticolazione più saranno limitati gli scorrimenti e il polimero risulta rigido. Conta anche il tipo di catena presente tra i vari punti di reticolazione. Quindi anche la flessibilità delle catene così come influenzava il comportamento termico e meccanico dei polimeri non reticolati e termoplastici influenza anche quelli reticolati. Sono quasi sempre amorfi perché questi vincoli non permettono libertà conformazionale sufficiente per realizzare un processo di cristallizzazione . Spesso le Tg sono inferiori alle temperature Td di decomposizione, soprattutto quando ho alte articolazioni e gruppi ingombranti in catena. Quindi si hanno degli oggetti molto stabili nella forma proprio per questi punti di richiamo e il limite termico di utilizzo è indicato più dalla temperatura di decomposizione piuttosto che da una Tg che non si vede perché scompare nella decomposizione. Non sono solubili in solvente perché non si riesce ad allontanare all'infinito le molecole solvatandole proprio perché ci sono queste reticolazioni. Adesso si vede come si ottengono questi materiali che possono sembrare svantaggiosi ma in realtà hanno vasti campi applicativi. Le reticolazioni possono essere di varia intensità quindi reticoli a maglie larghe o a maglie più strette a seconda di quante reticolazioni ho e la lunghezza delle catene tra i reticoli. 9 Vecchio/Zagaria 14. BIONANO (Ciardelli) 24/03/2022 Come si ottengono? Per lavorarli si fanno polimerizzare o meglio reticolare all'interno di uno stampo. Tant'è vero che in questo caso si parla di polimeri termoindurenti cioè il processo è inverso a quello visto per i termoplastici, infatti per questi ultimi all'aumentare della temperatura il polimero era fuso, veniva lavorato, formato e poi raffreddato. In questo caso, invece, il polimero, che in realtà è un prepolimero allo stato liquido, viene versato nello stampo, a questo punto viene scaldato come e avviene la reazione di reticolazione e il polimero solidifica; a quel punto però quando si raffreddano non è possibile più tornare indietro a meno che non si rompono questi reticoli che comunque sono molto difficili da rompere in quanto formati da legami covalenti. Questo è il caso di tutte quelle che chiamiamo resine. Per esempio nei materiali compositi le resine poliestere, le resine fenoloformaldeide,le resine epossidiche ecc. In certi casi invece sono ottenute da polimeri termoplastici che vengono reticolati con un reticolante o crosslinker. Per esempio la vulcanizzazione della gomma. Questo serve per aumentare la stabilità oppure dargli proprietà meccaniche diverse . Nel campo della biomedica nei materiali naturali tipo la gelatina che si scioglierebbe in acqua, se reticolati questi materiali non sono più solubili ma si ringonfiano (si aumenta così la stabilità di quelli che chiamo idrogeli). Inoltre, ci sono dei polimeri particolari chiamati elastomeri che sono termoplastici con poche reticolazione e un tipo di elasticità tipo gomma. Questi materiali possono essere parecchio allungati applicando un carico e una volta rilasciato il polimero recupera completamente la forma iniziale. Possono essere deformati fino a 7/8 volte rispetto alla lunghezza iniziale. Questa deformazione una volta rimosso il carico verrà completamente recuperata. Gli elastomeri debolmente reticolati sono caratterizzati da pochi punti di reticolazione, catene molto flessibili, pesi molecolari molto alti e Tg basse perché altrimenti sarebbero troppo rigidi. Debolmente reticolati vuol dire due o tre reticolazioni per catena, quindi molto poche; queste lasciano al materiale il comportamento di flessibilità tipicamente plastico ma tolgono l’irrecuperabilità della deformazione plastica grazie ai punti di memoria dovuti ai punti di reticolazione. Non si tenda a pensare agli elastomeri come materiali reticolati perché pensiamo alle gomme. Gli elastomeri in realtà possono anche essere termoplastici, per lori i punti di memoria sono le parti cristalline. Presentano regioni soft a Tg molto bassa (che rappresentano la parte flessibile del polimero che risponde alle sollecitazioni meccaniche) e regioni hard con Tg superiore alla T di utilizzo (che rappresentano la parte rigida del polimero, che agisce come un “crosslink” fisico perché “blocca” la posizione relativa delle catene impedendone scorrimenti plastici; tali crosslink fisici sono termolabili, in quanto le regioni hard diventano amorfe al di sopra della loro Tg). Quindi, se si prende il materiale termoplastico in un intervallo di temperature che vanno dalla Tg alla Tm allora la parte cristallina sarà solida e fa da punto di reticolazione fisica, e non chimica in questo caso, mentre la parte amorfa è in endostato ed essendo sopra la Tg è flessibile. Dal punto di vista concettuale funziona come i reticolati ma si ricordi che la reticolazione è non più chimica ma fisica. Ovviamente questi elastomeri sono elastomeri purchè non si superi la Tm; a questo punto se si fonde la parte cristallina vengono cancellati i punti di memoria e a quel punto si avranno dei materiali plastici (deformazione irrecuperabile e smorzatore come modello meccanico) e non più elastici (deformazione recuperabile e molla come modello meccanico). 10 Vecchio/Zagaria 14. BIONANO (Ciardelli) 24/03/2022 Domanda: Chiarimento sulla differenza tra reticolazione chimica e fisica. Risposta: La reticolazione chimica è mostrata in figura a sinistra in cui nei punti neri si hanno dei legami covalenti. Per esempio nelle resine c’è una reazione tra gli ossidrili del fenolo e il gruppo epossidico e si formano dei legami eterei covalenti. Termicamente non è possibile intervenire per rompere questi legami covalenti perché si dovrebbero raggiungere temperature molto alte che decomporrebbero il polimero. I polimeri semicristallini (figura a destra) invece hanno una situazione in cui la catena in parte è amorfa (azurra) e in parte ha delle situazioni ordinate che possono cristallizzare (rosso). Per cui se si pensa alla situazione di prima in cui si avevano queste catene amorfe in cui si formavano dei legami chimici. I punti rossi servono per ricordare alla catena la sua posizione iniziale prima dell’applicazione del carico. Dati questi due domini cristallini collegati da parti amorfe random coil, esercitando una trazione, ovvero applicando un carico, succede che le catene amorfe scorrono e il polimero si allunga. Una volta rimosso il carico si ritorna alla situazione iniziale perché queste zone cerchiate danno la memoria di forma. Nei polimeri crosslinkati invece questa memoria di forma è data dai legami covalenti che ci sono tra le catene che esercitano la forza di richiamo. La differenza dal punto di vista meccanico è la stessa, ma mentre in un polimero reticolato vale tutto l'intervallo di temperature per cui non si decompone il polimero oppure il polimero abbia catene allo stato vetroso sopra la Tg (è chiaro che se si va sopra 0 kelvin non sia ha più un elastomero), nei termoplastici invece questa proprietà si manifesta solo per temperature di transizione vetrose e temperatura di fusione perché oltre la temperatura di fusione vengono cancellati questi punti di memoria in quanto diventano random coil e non fanno più da richiamo. Reazioni di polimerizzazione-sintesi dei polimeri La reazione chimica che consente di ottenere i polimeri è detta di polimerizzazione. Esistono due diverse classificazioni: - - La stechiometria in cui si possono avere o delle poliaddizioni in cui si trovano tutti gli atomi dei monomeri nel polimero oppure delle reazioni di policondensazione in cui ho perdita di molecole; Meccanismo a stadi o meccanismo a catena. 11 Vecchio/Zagaria 14. BIONANO (Ciardelli) 24/03/2022 Ad esempio, nel polietilene si ha una poliaddizione in cui il polimero ha la somma dei monomeri iniziali. Nel polietilene si ritrovano tutti gli atomi che si avevano nell’etilene. Le policondensazioni non sono altro che le reazioni di condensazione della chimica organica. Ad esempio, in questo caso si ha un cloruro acilico più un’ammina che reaggendo tra loro danno il legame ammidico (nel quadrato) più HCl che è la molecola piccola di condensazione. La stessa cosa la posso fare nella reazione di policondensazione che porta alla formazione del Nylon 6-6. Quindi, nelle policondensazioni una parte del monomero viene eliminata durante la polimerizzazione sotto forma di piccole molecole che possono essere acqua o acido cloridrico. Ricapitolando: nella poliaddizione ritrovo tutti gli atomi nel prodotto e nella policondensazione perdo delle piccole molecole. Questo esempio particolare mostra come anche nel polietilene può essere ottenuto non solo tramite una poliaddizione come visto prima ma anche attraverso una policondensazione. Si prende un dibromuro, lo si tratta col sodio e si forma il polietilene più NaBr, per cui di fatto è una condensazione. Formalmente dal punto di vista chimico il polietilene ottenuto attraverso le due reazioni diverse è lo stesso, tuttavia presenta proprietà diverse per cui per esempio con la reazione di poliaddizione si ottengono pesi molecolari molto più alti. Quindi, siccome il peso molecolare dipende dal meccanismo, non risulta più interessante la classificazione basata sulla stechiometria appena vista, ma la classificazione sul meccanismo di reazione che viene presentata ora. Nella classificazione secondo il meccanismo si possono distinguere: - Processi di crescita a stadi: reazioni casuali tra due molecole che possono essere monomeri, oligomeri o polimeri attraverso l’interazione tra i gruppi funzionali. Esempio: ammina e cloruro acilico visto prima nel nylon. La reattività, cioè la velocità con cui questa reazione 12 Vecchio/Zagaria - 14. BIONANO (Ciardelli) 24/03/2022 avviene, e la probabilità è abbastanza indipendente dal peso molecolare (assunzione di Flory) per cui anche se il polimero cresce la reazione può avvenire in maniera indifferente. Processi di crescita a catena: in questo caso si forma una specie reattiva che può essere ad esempio un radicale o uno ione positivo o negativo che trasferisce la specie attiva al monomero e via via si attaccano nuovi monomeri alla catena. Concettualmente può essere visto come un treno a cui vengono attaccati nuovi vagoni. In questi processi si formano polimeri, cioè macromolecole, in tempi abbastanza brevi per cui il peso molecolare è già abbastanza alto in tempi ristretti ma la completa trasformazione del monomero nel polimero si raggiunge in tempi più lunghi. Pertanto, il monomero sparisce alla fine della reazione. Queste differenze sono bene semplificate in quest'immagine . Nella polimerizzazione a stadi nella prima fase si hanno solo i monomeri rappresentati con i pallini bianchi. Successivamente iniziano a formarsi legami, come quello ammidico visto prima in cui un cloruro incontra una ammina, e quindi dei dimeri. Nella terza fase continuano a formarsi nuovi legami e il peso molecolare aumenta un poco, infatti si vedono dei trimeri. Dopo tre passaggi inizia a sparire il monomero ma ancora il grado di polimerizzazione è basso. Nella polimerizzazione a catena è necessaria una molecola chiamata iniziatore (in blu) che porta dei radicali (puntino rosso) che attiva il monomero. Il radicale viene quindi trasferito al monomero nella prima parte. Nel passaggio successivo si attacca un nuovo monomero. L’ultimo monomero è sempre colorato in rosso perché il radicale si trasferisce sempre sull’ultimo monomero attaccato. Dopo tre passaggi si ha già un polimero ma ancora tanti monomeri non reagiti a differenza della polimerizzazione a stadi in cui si aveva il contrario perché spariva il monomero però non si aveva ancora polimero. Le reazioni a stadi sono più lente mentre quelle a catena più rapide (ad esempio il polimetilmetacrilato si può ottenere in 20 minuti mettendo il monomero in una boccetta di vetro, scaldandolo e dopo mezzora rotto il cilindro si trova un cilindretto di polimero. In questo caso bisogna accontentarsi di conversioni abbastanza basse perché per quelle alte ci vuole comunque più tempo). Le caratteristiche del meccanismo di polimerizzazione a stadi: 13 Vecchio/Zagaria - - - 14. BIONANO (Ciardelli) 24/03/2022 Le catene polimeriche restano attive durante l’intero processo di polimerizzazione; quindi, c’è sempre reattività e tutto il tempo necessario a consumare completamente le specie monomeriche; Le reazioni di inizio (quando si formavano i dimeri nel secondo step del processo mostrato nell’immagine di prima) e di propagazione avvengono con velocità confrontabili perché di fatto sono le stesse reazioni; La macromolecola si forma in un tempo relativamente lungo per cui per ottenere il polimero bisogna che passi abbastanza tempo; Il grado di polimerizzazione aumenta nel tempo. Le reazioni collaterali sono: - - La presenza di impurezze monofunzionali perché chiaramente se non si ha reattività, ovvero se ha reagito già con un gruppo e dall’altra parte non presenta alcun gruppo, allora lì il polimero non reagisce; Formazione di composti ciclici dovuta a condensazione intra o intermolecolare dei gruppi funzionali reattivi che non portano a polimerizzazione e fanno morire il polimero. Si faccia attenzione sul fatto che la polimerizzazione a stadi può avvenire sia per policondensazione che per poliaddizione. Si possono avere due monomeri bifunzionali A-A B-B tipo diammina di cloruro. Esempio: formazione di un dimero bifunzionale da due monomeri bifunzionali. La reazione procede con formazione di trimeri, tetrameri, etc attraverso reazione che hanno la stessa velocità e meccanismo (esterificazione): formazione di una miscela di molecole reattive a vari pesi molecolari. Reazione di esterificazione Questa reazione porta alla formazione del polimero passando dal dimero, trimero, tetrameri facendo crescere via via il peso molecolare senza variazioni nella velocità di reazione. Quindi si ha sempre una miscela di molecole reattive a vari pesi molecolari finché alla fine non si terminano i gruppi funzionali. 14 Pascale/ Di Leo 15 Bionanotecnologie (Ciardelli) 24/03/2022 REAZIONI DI POLIMERIZZAZIONE CARATTERISTICHE DEI MONOMERI nelle reazioni policondensazione Si hanno due gruppi funzionali A e B complementari che reagiscono tra loro mediante reazione di condensazione (si libera una piccola molecola) oppure tramite reazione di addizione al doppio legame (tipicamente quella dei poliuretani); in questo caso non si formano molecole piccole. Il meccanismo è sempre lo stesso cioè a stadi. Tali monomeri possono essere di tipo A-A, B-B (diammina di cloruro, diolo di acido, diolo di isocianato) oppure del tipo A-B, quindi un solo monomero che contiene, per esempio, sia il gruppo carbossilico che ossidrilico, ad esempio i poliesteri (A gruppo acido B gruppo alcolico) e le poliammidi (A gruppo acido/cloruro, B gruppo amminico). Tutte le molecole presenti nel mezzo di reazione (monomeri, oligomeri, polimeri) hanno la stessa probabilità di reagire durante l’intero processo di polimerizzazione. A-B se ho tutte e due le funzioni nello stesso monomero o A-A/B-B se invece ho due monomeri diversi (nylon 6,6 in questo caso). Riassunto MECCANISMO DI POLIMERIZZAZIONE A STADI • • • • • Due qualsiasi molecole possono reagire: inizio, propagazione e terminazione sono identici nel meccanismo e nella velocità; La lunghezza della catena (e quindi il peso molecolare) cresce in funzione del tempo al procedere della reazione; Sono necessari alte conversioni per la produzione di un polimero con un elevato grado di polimerizzazione Xn; Sono necessari rapporti equimolari tra le funzionalità reagenti per avere elevati Xn; All’aumentare del grado di polimerizzazione, aumenta il peso molecolare medio e anche l’indice di polidispersità aumenta; 1 Pascale/ Di Leo • 15 Bionanotecnologie (Ciardelli) 24/03/2022 Le polimerizzazioni a stadi possono essere reazioni di condensazione, (es.poliammidi da diacidi carbossilici e diammine o poliesteri da diacidi carbossilici e dialcooli) o di addizione (es poliuretani da diisocianati o dialcooli); le tipologie di monomeri di indicano come: A-B, A-A/B-B. Tabella riassuntiva I polimeri delle addizioni: Dalla reazione di un diisocianato un’ammina si ottiene l’urea (a sinistra) e se invece di un diolo si usa una diammina si ottiene una poliurea. 2 Pascale/ Di Leo 15 Bionanotecnologie (Ciardelli) 24/03/2022 MECCANISMO DI POLIMERIZZAZIONE A CATENA 1. Inizio: generazione del sito attivo sul monomero. Si ha un iniziatore I più il monomero M e si forma una specie attiva che può essere un radicale ma anche un carbocatione o un carbanione. Si tratta rispettivamente di polimerizzazione radicalica, cationica, anionica. 2. Propagazione: addizione dei monomeri sul sito attivo e suo trasferimento al terminale di catena. Può esserci la ricombinazione tra due catene e la formazione di un legame, quindi si distrugge il sito attivo tramite un urto nei recipienti del reattore o un trasferimento del sito attivo ad un’altra molecola. Le reazioni a catena sono meno controllabili e meno lineari dal punto di vista della reattività rispetto a quelle a stadi. 3. Terminazione: per qualche motivo muore il radicale, muore la specie attiva e quindi la reazione termina. 4. Trasferimento: trasferimento del sito attivo ad un’altra molecola. In genere i monomeri sono in saturi (doppio legame). Ci sono monomeri vinilidenici (CH2=CR 1R2) o vinilici (CH2=CHR). Si deve formare la specie attiva quindi la reazione deve essere un radicale o uno ione (catione o anione) che addiziona monomeri in sequenza rapidissima (frazione di secondo). Richiedono generalmente la presenza di un iniziatore (composto chimico o anche semplicemente radiazione o riscaldamento) per far partire la reazione. Si prendono i monomeri vinilici per semplicità: in funzione del tipo di R si può avere un meccanismo cationico, anionico o radicalico (adattabile a più casi). CASO 1) Ad esempio, se si ha un gruppo alcossi elettron donatore con un iniziatore cationico I +; questo si attacca formando ICH2 e si forma il carbocatione C+. Con la risonanza si stabilizza il carbocatione spostando la carica positiva sull’ossigeno. 3 Pascale/ Di Leo 15 Bionanotecnologie (Ciardelli) 24/03/2022 Grazie a questa forma di risonanza questa specie è più stabile e questo spiega perché si utilizza un meccanismo cationico a catena con gruppi elettron donatori. CASO 2) Gruppo elettron attrattore, per esempio il CN, a catena anionico. In questo caso c’è un anione I- che porta alla formazione di un carbanione. I polivinileteri si fanno per via cationica mentre il poliacrilonitrile si può fare per via anionica. Benzene ad esempio meccanismo radicalico. Riepilogo: Quindi i meccanismi a catena prevedono una reazione di inizio sul monomero che crea un monomero attivo * (radicale, catione, anione). 4 Pascale/ Di Leo 15 Bionanotecnologie (Ciardelli) 24/03/2022 In presenza di elettron donatori si utilizza un meccanismo cationico: si forma un carbocatione secondario stabilizzato dall’effetto di risonanza, rendendo favorevole questo meccanismo di reazione (viniledri con gruppo alcossi elettron donatore si polimerizzano per via cationica). Se si ha invece un gruppo elettron attrattore che stabilizza invece i carbanioni, portando via carica negativa, allora si può utilizzare il meccanismo anionico. Ad esempio si utilizza un alcolato come iniziatore e si crea un carbanione che è stabilizzato dalla forma in cui è spostata la carica negativa su un atomo di azoto. CONFRONTO TRA I MECCANISMI A STADI E A CATENA Le reazioni a catena sono molto più veloci e il peso molecolare sale rapidamente contrariamente alle reazioni a stadi in cui il peso molecolare si mantiene basso finché non hanno reagito tutti i gruppi al 100%. Il peso molecolare medio nelle reazioni a catena non aumenta tanto ma aumenta la conversione da monomero a polimero. Nelle reazioni a catena ci sono delle reazioni non volute, quelle di fine di reazione, dove il radicale muore perché urta contro un altro radicale oppure urta contro le pareti del recipiente; alla fine può rimanere del monomero non reagito. Il peso molecolare dei polimeri ottenuti nel processo a catena è legato al rapporto tra le varie velocità del processo (inizio, propagazione, termine e trasferimento); in certi casi si vuole far sì che il peso molecolare non cresca troppo aggiungendo specie chimiche che aumentano probabilità di termine. Nelle reazioni a stadi il peso molecolare cresce con il tempo di polimerizzazione: più si aspetta più aumenta il peso molecolare se si lavora in rapporti stechiometrici. Nelle reazioni a stadi possono reagire monomeri o oligomeri indifferentemente mentre nelle reazioni a catena la catena polimerica cresce per l’attacco di unità monomeriche. 5 Pascale/ Di Leo 15 Bionanotecnologie (Ciardelli) 24/03/2022 FOTOPOLIMERIZZAZIONE È alla base di vari processi, tra cui la fotografia. Un fotopolimero è una specie che, sottoposta ad interazione diretta o indiretta alla luce, varia le sue proprietà chimico-fisiche. In genere ho un processo di polimerizzazione o depolimerizzazione indotto dalla luce e reso possibile dalla presenza contemporanea di un fotoiniziatore, cioè una sostanza che riceve la radiazione e poi trasmette il tutto al polimero. I fotopolimeri possono essere monomeri o oligomeri (a basso peso molecolare) che presentano un gruppo funzionale X che, irraggiato, fa partire una polimerizzazione a catena per formare una reticolazione. FOTOINIZIATORE: riceve la luce, forma un radicale, e poi trasmette al gruppo funzionale X che poi innesta la polimerizzazione. GRUPPI FUNZIONALI X: in certi casi possono essere fotoattivi e reagiscono con accoppiamento o dimerizzazione. In genere questi polimeri hanno una forma a stella con n ramificazioni; se n = 0 si ha un polimero lineare. Ci sono altre formulazioni che possono portare a formazione di materiali a più alto/basso peso molecolare. C’è un polimero che presenta i gruppi X e un secondo reagente con gruppi Y complementari. Quando si irraggia in presenza di un fotoinizializzatore si ha una reazione tra X e Y e questo fa sì che avvenga una reticolazione poiché si hanno gruppi polifunzionali con n > 0. 6 Pascale/ Di Leo 15 Bionanotecnologie (Ciardelli) 24/03/2022 In certi casi si ha una reazione fotoindotta in presenza o assenza del fotoinizializzatore che comporta una trasformazione dei gruppi funzionali pendenti (polimero aggraffato) e gli X si trasformano in Y con conseguente aumento di solubilità del polimero (serve nelle fotografie e nelle litografie). In certi casi i fotopolimeri possono subire reazioni di scissione se irradiati, si rompono i legami chimici in catena quindi il peso molecolare si abbassa e quindi si ottengono oggetti in realtà più solubili. Dopo l’irraggiamento si elimina il materiale irraggiato, mentre nei casi precedenti si rimuove eventualmente il materiale non irraggiato. Proprietà MECCANICHE DEI POLIMERI Le proprietà meccaniche si testano sfruttando il fatto che la maggior parte dei polimeri sono termoplastici e si fabbrica un provino ad osso di cane (ad esempio fondendo il polimero) con una sezione A0 e una lunghezza l0. 7 Pascale/ Di Leo 15 Bionanotecnologie (Ciardelli) 24/03/2022 Ci sono due traverse, una fissa e una mobile, grazie a cui si può stirare il materiale per misurare la forza. Si deve operare in condizione controllata (temperatura e umidità idealmente costanti) e bisogna impostare una velocità a cui si deve muovere la traversa mobile; si misura la forza F necessaria e si ricavano lo sforzo σ = F/A0 e la deformazione A% = [(l-l0)/ l0]ˑ100. Si costruisce poi la curva sforzo-deformazione in cui viene riportata σ in funzione di ε. Queste curve per i polimeri non sono così predittive e realistiche come nei materiali metallici, però si utilizzano. In genere la partenza a bassi sforzi è lineare e il polimero ha un comportamento elastico; poi si inizia a vedere la curva che si piega: questa parte è quella che viene definita deformazione visco-elastica. A un certo punto (punto di snervamento o di Yield) la curva ha un massimo e, a sforzo costante, il polimero si allunga senza opporre resistenza fino a che non si arriva ad un punto di rottura. Importante è il punto A dove finisce il comportamento elastico: l’integrale della curva, cioè l’area sottesa a essa, rappresenta l’energia per la frattura fragile. Tutto il resto che si vede nel grafico è l’energia richiesta per la rottura tenace, per la parte non fragile. Il punto B indica la resistenza a rottura. Un altro punto importante è l’allungamento a snervamento (e la corrispondente tensione). la pendenza della curva nel tratto lineare è il modulo elastico. Curva sforzo-deformazione ideale 8 Pascale/ Di Leo 15 Bionanotecnologie (Ciardelli) 24/03/2022 Un polimero vetroso è molto fragile: ha un comportamento elastico e poi si rompe molto presto. Un semicristallino ha un comportamento molto simile. Se ci si sposta ad una temperatura compresa tra Tg e Tm si ha un comportamento diverso: una deformazione elastica e poi uno snervamento e un comportamento plastico. Un elastomero ha un comportamento elastico ma con modulo estremamente basso: in realtà non è mai un comportamento puramente elastico per ma visco-elastico. Inoltre, presenta un nuovo irrigidimento dovuto all’irrigidimento sotto stiro. Normalmente i polimeri non hanno deformazioni lineari per piccole deformazioni; Solo quelli rigidi a temperature molto basse hanno un comportamento elastico simile a quello di un metallo. Il fatto che si veda il punto di snervamento così bene in realtà è un artefatto perché lo sforzo che si riporta è quello calcolato sulla sezione primitiva A0; quando si stira un polimero, questo crea quello che si chiama necking (da neck, collo) e la sezione reale diminuisce (strizione). Si applica quindi una forza su una sezione più minore e lo sforzo è quindi maggiore. Per questo motivo la curva dà informazioni nel confronto tra materiali ma non è una curva reale (curva ingegneristica). Il punto snervamento non è preciso nei polimeri perché essi snervano facilmente. Il modulo di Poisson, cioè il rapporto tra la deformazione longitudinale e quella trasversale, è maggiore perché il polimero tende a deformarsi più trasversalmente che longitudinalmente, per questo snervano e quindi la curva reale sarebbe quella tratteggiata in figura. Quando c’è il necking lo stress è ancora più complesso in quanto si hanno sezioni diverse in punti diversi del provino (curva corretta). Il polimero si restringe cambia A 0 e quindi F/A. 9 Pascale/ Di Leo 15 Bionanotecnologie (Ciardelli) 24/03/2022 Si può analizzare come si comportano i vari polimeri. ➢ POLIMERI AMORFI Polimeri fragili e amorfi come il polistirene sono rigidi ed elastici. Nel polimetalcrilato c’è una zona elastica (1) e una zona viscoelastica (2) in cui il polimero si comporta in parte come una molla e in parte come uno smorzatore (in parallelo, modello meccanico). ➢ POLIMERI SEMI-CRISTALLINI Si ha lo snervamento e poi si crea il neck. Non si vede più aumento dello sforzo all’aumentare della deformazione perché il materiale si sta allungando e di fatto si stanno orientando le catene polimeriche. Il necking può essere importante a livello di lavorazione dei materiali (strizione o stiro a freddo) perchè comporta la distensione delle catene nelle zone amorfe che si orientano secondo lo stiro, così come i cristalliti. Per alti valori di deformazione si forma una strutttura fibrillare e in genere si fa tra la Tg e la Tm con velocità di deformazione di un certo valore. 10 Pascale/ Di Leo 15 Bionanotecnologie (Ciardelli) 24/03/2022 VISCOELASTICITA’ È un comportamento misto sia viscoso che elastico. È una deviazione sia dalla legge di Hooke (molla) sia dalla legge di Newton (fluido con viscosità indipendente dal tempo). Quindi le deviazioni sono: 1) La deformazione o velocità di deformazione possono non essere direttamente proporzionali allo sforzo; 2) Lo sforzo può dipendere sia dalla deformazione che dalla velocità di deformazione (come pure da derivate superiori della deformazione rispetto al tempo): COMPORTAMENTO VISCOELASTICO. Per rappresentare questo comportamento in genere non sono tanto importanti le curve sforzodeformazione ma lo sono di più gli esperimenti di creep. Si va cioè a vedere la dipendenza dal tempo dell’allungamento dell’applicazione del carico. Questo ha un interesse anche pratico (es: attaccapanni che ha un giubbotto appeso con un peso sempre uguale che produrrà quindi uno sforzo circa costante, se i polimeri con cui è fatto l’attaccapanni avessero un creep e l’allungamento aumentasse nel tempo, il giubbotto arriverebbe a terra). Si ha una deformazione elastica istantanea quando si attacca il giubbotto, una deformazione viscoelastica che dipende dal tempo di applicazione del carico secondo una legge esponenziale e infine ci può essere una componente plastica o visco-plastica che è un’integrazione della legge di Newton. 11 Pascale/ Di Leo 15 Bionanotecnologie (Ciardelli) 24/03/2022 Esperimento di creep dal punto di vista grafico: Si applica lo stress e si misura ε in funzione di t. • • • OA: deformazione elastica. AB: esponenziale che rappresenta la deformazione viscoelastica BC: deformazione puramente plastica. Se si rimuove lo stress: • • • CD: si recupera istantaneamente la deformazione elastica DE: si recupera non istantaneamente ma con un certo termine di ritardo τ C’è una parte c’ che non si recupera più ovvero la parte plastica. Dal punto di vista meccanico si può modellare il fenomeno con il modello di Voigt-Kelvin: Ci sono una molla E1, che rappresenta la prima deformazione (parte elastica), e una seconda molla E2 che è accoppiata in parallelo ad uno smorzatore (parte viscosa). Poi c’è una terza parte, la deformazione plastica, rappresentata da η3 che non viene recuperata. 12 Pascale/ Di Leo 15 Bionanotecnologie (Ciardelli) 24/03/2022 Dopo aver applicato lo sforzo si allunga E1 e si allunga E2 con un certo ritardo perché rallentata dallo smorzatore. Si ha poi la deformazione totalmente viscosa. Rimuovendo lo stress la molla E1 ritorna subito alla posizione iniziale, la molla E2 ritorna con un certo ritardo e la deformazione dovuta allo smorzatore η3 non viene recuperata più (vedi ultima figura a destra su). Domanda: nel creep qual è fisicamente la componente plastica? Se si può identificare. Dipende dal polimero. È comunque una fase abbastanza fluida in quella temperatura a cui si sta facendo la prova (ovviamente non è o sotto la Tg o sotto la Tm). Per esempio, in un polimero che ha fase hard e soft quest’ultima è responsabile del comportamento plastico (o viscoelastico se c’è ancora una parte hard). Più che identificare una componente è più legato alla situazione rispetto alla temperatura. La parte plastica è quella dovuta allo scorrimento delle catene polimeriche una sull’altra quindi è chiaro che questo dà l’idea di un comportamento fluido, o meglio di un liquido viscoso. I polimeri sono solidi/rigidi, solidi meno rigidi e fluidoviscosi a seconda della variazione di temperatura o dello sforzo che si applica. ➢ ELASTOMERI Le gomme sono polimeri con catene semplici. Non hanno gruppi generalmente ingombranti, quindi in genere sono catene alifatiche quindi con attrito interno trascurabile. 13 Pascale/ Di Leo 15 Bionanotecnologie (Ciardelli) 24/03/2022 I pesi molecolari sono molto alti nell’ordine dei milioni. Sono materiali viscosi, tenaci e forti con Tg molto bassa, quindi quando vengono usati a temperatura ambiente sono sopra la Tg e sono reticolati debolmente (hanno pochi di quei punti di reticolazione visti prima). Hanno un comportamento per tutta la curva sforzo-deformazione di tipo viscoelastico con deformazioni plastiche nulle (si recuperano tutte le deformazioni); anche le deformazioni elastiche sono trascurabili rispetto a quelle viscoelastiche. Quando si ha un forte allungamento si ha un aumento delle proprietà meccaniche perché si orientano le fibre; ad esempio, le gomme dell’aereo quando atterra subiscono uno sforzo alto molto brusco e si irrigidiscono e questo serve per atterrare bene. Questi sono gli elastomeri in cui si arriva a sforzi molto alti per allungamenti molto alti. NANOSCALA: PROPRIETÀ E VANTAGGI Si vedrà come le proprietà fisiche dipendono dalla scala dimensionale e l’applicazione di questi concetti nel design di MEMS e BIOMEMS Scala dimensionale: Materiali con dimensioni alla nanoscala presentano proprietà fisico-chimiche diverse rispetto agli stessi materiali alla scala più grande. Si vedrà la dipendenza dei fenomeni fisici dalla lunghezza L. Banalmente i fenomeni fisici dipendono dalla massa M che è la densità per il volume, che dipende dalla L3. La massa in funzione della lunghezza avrà quindi un andamento cubico. 14 Pascale/ Di Leo 15 Bionanotecnologie (Ciardelli) 24/03/2022 Per dimensioni piccole la massa vale molto poco. Il tempo non dipende dalla lunghezza, il tempo di diffusione dipende dalla lunghezza al quadrato → alla nanoscala si possono annullare le differenze di concentrazione e avere diffusione molto più rapida ed efficace. L’area, per esempio, dipende da L2 quindi le aree possono essere molto piccole, il rapporto area su volume è massimizzato alla nanoscala: avere più superficie significa avere più reattività. (Anticipazione di ciò che si dirà nella prossima lezione). 15 Prochilo/Ricciardi 16 Bionanotecnologie (Ciardelli) 25/03/2022 NANOSCALA: PROPRIETÀ E VANTAGGI Miniaturizzazione – scalabilità dei fenomeni fisici Le grandezze fisiche ed i fenomeni fisici scalano rispetto alle dimensioni. Poiché alla nanoscala si lavora in dimensioni molto piccole, la scalabilità fa sì che le forze e le grandezze fisiche che sono dipendenti dalla lunghezza con esponenti negativi, come le forze di Van der Waals, le interazioni molecolari o anche il campo elettrico, siano molto più importanti su piccola scala e diventino più forti mentre altre diventano meno grandi a scale piccole. In particolare, ci concentreremo sul tempo di diffusione ed il numero di Reynolds che sono due elementi importanti che permettono di realizzare dispositivi alla nanoscala per applicazioni in campo biochimico, biologico e biomedico con proprietà diverse. Forza Gravitazionale Si è visto come si ragiona per calcolare questa dipendenza laddove ci siano grandezze che dipendono dalla distanza in maniera non immediata, come la forza gravitazionale che dipende dal reciproco della distanza al quadrato ma è anche dipendente dal prodotto delle masse. Se, in prima approssimazione, si considera che diminuendo la dimensione la riduzione proporzionale si ha per tutte le grandezze, si può arrivare ad una dipendenza della forza gravitazionale che è una proporzionalità di 𝑙 perché la massa dipende dal volume che a sua volta dipende da 𝑙 . Anche la forza gravitazionale alla nanoscala diventa qualcosa di trascurabile. 1 Prochilo/Ricciardi 16 Bionanotecnologie (Ciardelli) 25/03/2022 Rapporto superficie volume Questo avviene anche per il rapporto superficie su volume. La superficie dipende da 𝐿 e il volume dipende da 𝐿 quindi facendo il rapporto si trova una dipendenza di 1/L. Vuol dire che il rapporto superficie su volume diventa molto grande alla nanoscala. Questo perché viene rappresentato da una curva iperbolica che risponde alla funzione matematica f(x) = 1/x. Questo è importante in vari fenomeni: per esempio il riscaldamento ed il raffreddamento sono molto più veloci per corpi piccoli. Vi era l’esempio del topo che mangia molto più velocemente di un elefante perché ha bisogno di mantenere un rate metabolico molto alto per mantenere la propria temperatura interna sufficientemente alta. Può essere una proprietà importante quando si va a costruire dei dispositivi. Può diventare importante il fatto che la funzionalizzazione di superfici nanostrutturate, nanodimensionate, può permetterci di avere delle reazioni di modifica superficiale molto più efficienti che su superfici normali lisce. Questo perché se si vuole legare un ligando, quindi una sostanza che va ad interagire con le cellule oppure con altri oggetti, se la superficie è liscia si riuscirà a collocarne solo alcune molecole, alcuni gruppi di legame; mentre in una superficie nanostrutturata (ad es. foresta di nanotubi: un nanotubo è un tubo di carbonio di dimensioni nanometriche, come se fosse un foglio di grafite piegato a cilindro) ci sono metodi che permettono di costruire superfici con un’incredibile quantità di nanotubi sulla superficie stessa. Ciascuna punta del nanotubo è come la punta delle zampe del geco, se porta con sé un ligando 2 Prochilo/Ricciardi 16 Bionanotecnologie (Ciardelli) 25/03/2022 si può localizzare sulla superficie un numero di ligandi molto superiore rispetto alla funzionalizzazione superficiale su una superficie liscia non strutturata proprio perché l’alto rapporto superficie su volume permette di avere un numero di siti reattivi molto più alto. Ad esempio, nella catalisi avere dei catalizzatori nanostrutturati può avere un vantaggio di efficienza del catalizzatore stesso nell’accelerare le reazioni chimiche. Tensione Superficiale Altra grandezza di cui può avere una certa importanza analizzare la dipendenza dalla distanza è la tensione superficiale. Essa è l’energia dovuta al fatto che mentre in una massa, ad esempio di liquido, le molecole sono circondate da altre molecole uguali e quindi in tutte le direzioni sentono le forze d’interazione attrattive di tutte le altre molecole, lo strato molecolare che si trova all’interfaccia tra un liquido che può essere l’acqua e l’aria manca della forza attrattiva esercitata dalle molecole dello strato superiore, proprio perché lo strato non c’è. Quindi queste molecole sentono questo non equilibrio di forze e si crea un’energia libera superficiale che fa sì che ci sia una forza. Questa tensione è sfruttata da insetti molto leggeri per camminare sull’acqua perché sfruttano questa forza per rimanere in equilibrio sulla superficie dell’acqua. Anche questa tensione è proporzionale tramite un coefficiente di proporzionalità alla lunghezza; alla nanoscala anche questa grandezza diventerà molto meno importante. Tempo di Diffusione Una grandezza che può avere interesse progettuale è il tempo di diffusione. Se ci sono due regioni separate da un divisorio permeabile e che presentano concentrazioni diverse di una specifica sostanza, la sostanza diffonderà dalle zone concentrate a quelle a minore concentrazione dopo sufficiente tempo. Si definisce tempo di diffusione il tempo che serve per annullare il gradiente di concentrazione e per passare da una situazione iniziale a una finale in cui nelle due regioni non c’è più differenza di concentrazione. Se si considera l’annullamento del gradiente su una distanza L, vale una legge che è l’integrazione della legge di Fick, dove: D = coefficiente di diffusione (dipende dalla sostanza ma a parità di sostanza è una costante) 𝑞 = costante adimensionale 3 Prochilo/Ricciardi 16 Bionanotecnologie (Ciardelli) 25/03/2022 La grandezza 𝑡 è ricavabile dalla legge di Fick, è proporzionale ad 𝑙 ed è rappresentabile da una parabola; si vede che alla nanoscala è una grandezza molto piccola (in sistemi micro e nanostrutturati i tempi di diffusione sono molto più bassi). Se si immagina di avere un contenitore con un lato di 1 mm il volume sarà di 1 μL, se di lato 100 μm sarà di 1nL e così via come nella tabella: La diminuzione delle dimensioni del contenitore porta ad una diminuzione da microlitro a fentolitro del volume in gioco. Il tempo di diffusione varia di un fattore 100 perché si ha 𝑙 . Il tempo di diffusione alla micro e nanoscala è molto minore. È minore il tempo necessario affinché le molecole migrino secondo gradiente; questo consente di fare mescolamenti più rapidi e, siccome le reazioni chimiche avvengono quando due specie si incontrano, anche le reazioni chimiche avvengono più velocemente. Questo ha portato allo sviluppo di micromiscelatori e microreattori che permettono di far avvenire reazioni in tempi più veloci. Numero di Reynolds Altro aspetto importante di utilizzare volumi piccoli è quello di poter ottenere flussi laminari in questi volumi. Un flusso si definisce laminare in funzione del suo numero di Reynolds. Da 𝑙 non dipendono viscosità e densità ma velocità e lunghezza caratteristica. Quindi il numero di Reynolds dipende dalla lunghezza con una dipendenza di tipo quadratico. Si ha ancora una parabola, ancora valori piccoli alla micro e nanoscala. Quando Re è basso si ha effettivamente un flusso laminare; quando Re è alto si ha un flusso turbolento. Se si mettesse una polverina nel liquido per vedere come il liquido fluisce, si vedrebbero le particelle scorrere senza mescolarsi nel flusso laminare mentre un continuo rimescolamento in quello turbolento. 4 Prochilo/Ricciardi 16 Bionanotecnologie (Ciardelli) 25/03/2022 Il vantaggio dei flussi laminari è che quando si alimentano in un canale unico essi non si mescolano tra loro. In microfluidica i bassi Re permettono di avere flussi laminari che hanno il vantaggio di essere più facili da modellare dal punto di vista teorico. Se i flussi sono laminari i flussi continuano a fluire paralleli uno all’altro anche quando sono mescolati (non si mescolano di fatto). Regolando la velocità del flusso si possono ridurre i fenomeni diffusivi e i fluidi continuano a fluire separati, senza mescolamento. [Filmato https://www.youtube.com/watch?v=5QVwljd04Kw] I diversi fluidi alimentati da canali differenti, a tempi consecutivi, si incontrano in un canale unico nel quale però non si vanno a mescolare (i colori restano separati nel canale unico). Micro e nanoscala – cosa possiamo fabbricare? Si vede ora cosa si può fabbricare alla micro e nanoscala. Gli oggetti micrometrici sono oggetti comuni che chiunque è in grado di produrre, ad esempio la cruna dell’ago di 2-3 mm fabbricabile con metodi tradizionali. La micro e nanoscala permette di realizzare device micromeccanici anche molto raffinati su scala 10-100 micron. Si è già visto che si possono produrre con opportuni metodi nanoparticelle polimeriche di dimensioni 50-100 nanometri (paragonabili a quelli dei virus) e che possono interagire in maniera particolare con le cellule. Dalla grafite si possono produrre nanotubi di carbonio di soli 10 nm. Addirittura si riesce a scendere ancora più giù con tecniche di microscopia a sonda usate come tecniche di fabbricazione: nell’esempio in fondo a destra è stato creato un atollo corallino di 48 atomi di ferro depositati su una superficie di rame (si possono depositare anche singoli atomi). Ci sono quindi tecnologie in grado di costruire oggetti alla micro e nanoscala che possono essere sfruttate per varie applicazioni. 5 Prochilo/Ricciardi 16 Bionanotecnologie (Ciardelli) 25/03/2022 BioMEMS (Biological Micro-Electro-Mechanical Systems) In particolare queste tecniche si possono sfruttare in campo biomedicale. I MEMS sono usati in elettronica per creare circuiti integrati miniaturizzati e i BioMEMS sono usati per processare, manipolare, analizzare, costruire le entità biologiche o chimiche. Trasferiscono alla micro e nanoscala quelle operazioni che si possono fare in un laboratorio chimico o biologico, quali: diagnostica nel punto di cura “point of care” (elettroforesi capillare o sensori proteici) sistemi ad alta produttività “high throughput” (rilevare e sequenziare molecole di DNA e sequenziare il genoma tramite DNA microarrays) separazione e cattura cellulare che permettono in un campione eterogeneo cellulare di identificare la presenza di specifiche cellule Ci sono poi i dispositivi impiantabili in vivo, che si vedranno meno: impianti neurali o cocleari che servono per ripristinare funzioni cerebrali o uditive danneggiate gli stent cardiovascolari che tengono aperti i vasi per ripristinare la vascolarizzazione del tessuto cardiaco sensori del glucosio impiantati nel paziente che rilevano il glucosio in tempo reale e possono essere interfacciati con rilasci intelligenti e triggered di insulina farmaci intelligenti sistemi di monitoraggio da remoto (cerotti in grado di trasmettere informazioni sullo stato di salute del paziente, comunicando con un sistema sanitario anche a distanza) pillole intelligenti, sistemi d’indagine Benefici della nanoscala – Flusso laminare in microfluidica Si vedono ora degli esempi di sfruttamento dei sistemi microfluidici alla micro e nanoscala per effettuare operazioni particolari, che hanno interesse in ambito biomedicale. Gli esempi sono presi da pubblicazioni scientifiche e verranno resi disponibili nel materiale del corso. Sono esempi concettuali che non hanno un’applicazione pratica immediata ma fanno capire le potenzialità che questi sistemi possono avere a livello di applicazioni biomedicali. 1) In questo primo esempio è sfruttato il flusso laminare nei microcanali per ottenere gradienti o separazioni di sostanze di interesse biologico o di cellule. Il design del dispositivo ha 3 o 5 inlet nei quali viene alimentata la proteina BSA (albumina del siero bovino) in forma normale ed in forma fluorescente FITC = Fluoresceina isotiocianato; è un modo per colorare con un colorante fluorescente la proteina. Nel caso a 3 canali si alimenta quindi dal canale in alto la proteina fluorescente, dal centrale la proteina non fluorescente e da quello in basso di nuovo la proteina fluorescente. La fluorescenza viene verificata nel canale di raccolta e si trova infatti solo nelle due porzioni laterali, dimostrando che il pattern viene mantenuto. Questo succede anche quando si alimenta nei 5 canali alternativamente fluorescente, non fluorescente, fluorescente, non fluorescente, fluorescente; anche qui nel canale di raccolta si trova la 6 Prochilo/Ricciardi 16 Bionanotecnologie (Ciardelli) 25/03/2022 fluorescenza ai due lati ed al centro mentre nelle regioni laterali no. Si dimostra che il pattern di alimentazione è mantenuto senza mescolamenti grazie alla laminarità del flusso. 2) Nel secondo esempio, sempre appartenente al lavoro di Takayama pubblicato su PNAS nel 1999, si è passato da maneggiare proteine a maneggiare cellule. Si sono alimentati batteri di Escherichia Coli dai due canali laterali e mezzo di coltura da solo dall’alimentazione centrale. Anche qui nel canale di raccolta c’è il mantenimento del pattern: si vedono i batteri sui due lati ma non al centro. Addirittura questo avviene anche se si hanno alimentazioni contenenti cellule diverse: nell’immagine a destra sono stati presi eritrociti, Escherichia Coli e di nuovo eritrociti. Gli eritrociti sono alimentati dai due lati e nel canale al centro si ha l’Escherichia Coli; questo pattern si ritrova non mescolato nel canale di raccolta. 3) Il terzo esempio fa vedere qualcosa che può avere potenzialmente un’applicazione pratica. Sono state seminate cellule endoteliali dei vasi sanguigni in modo uniforme sul canale di raccolta (si endotelizza il canale); successivamente si alimenta da uno dei 3 inlet la soluzione di marcatura Syto 9, cioè un colorante fluorescente delle cellule. Si vide che solo le cellule disposte nella porzione superiore nel canale di raccolta venivano marcate, mentre le due regioni investite dal mezzo di coltura da solo non venivano marcate. Questo a dimostrare che le cellule che venivano a contatto con la soluzione di staining erano solo quelle vicine al canale di alimentazione dello staining e non quelle vicine agli altri due canali; ancora una volta non c’è mescolamento. Questo può permettere di creare pattern di cellule: nell’esperimento successivo (in figura a destra) si è sostituita la soluzione di marcatura con una soluzione fatta da tripsina ed EDTA che provoca il distacco delle cellule adese (la tripsina è un enzima che degrada le proteine di adesione tra le cellule e la superficie). Anche in questo caso fu visto che 7 Prochilo/Ricciardi 16 Bionanotecnologie (Ciardelli) 25/03/2022 si staccavano solo le cellule nella regione superiore mentre le altre che ricevevano solo il mezzo, e quindi si trovavano adiacenti ai canali 2 e 3 e non al canale 1, rimanevano ben adese. Si staccavano quindi solo le cellule nella parte superiore del canale. Quindi iniettando la soluzione che induce il distacco delle cellule nel canale 1 si staccano solo le cellule nella porzione superiore del canale di raccolta. 4) Qui si vede un esempio preso da un articolo scientifico del 2004 pubblicato su Science. È stato fatto un separatore microfluidico sfruttando il flusso laminare che si riesce a creare alla microscala. Utilizzando un sistema microfluidico ed una serie di ostacoli di scala micrometrica, si possono separare le particelle in un fluido in base alle loro dimensioni. Quando un flusso laminare incontra un ostacolo succede che il flusso si biforca intorno all’ostacolo e poi si ricompone come era inizialmente senza creazione di vortici; non c’è mescolamento quindi mettendo delle particelle nel fluido le ritroviamo nella stessa posizione oltre l’ostacolo. È stato costruito un sistema (fig. A) con separatori in cui si mettono degli ostacoli ognuno di lunghezza 2λ/3 ad una distanza λ tra i due centri degli ostacoli e nel “livello” successivo gli ostacoli sono shiftati di λ/3 rispetto alla posizione originale nel livello precedente (come se a ogni livello si spostasse di metà ostacolo verso destra). Il fluido fluisce, incontra l’ostacolo, lo evita e riparte e così via. Se si immagina di avere un fluido costituito da 3 componenti (in fig. B rosa, giallo e azzurro) la componente rosa parte dalla posizione 1, incontra l’ostacolo e occupa la posizione 3, lo supera finendo in posizione 2 e infine torna in posizione 1 dopo aver superato due barriere/livelli, alla terza barriera torna alla posizione originale 1. Per giallo 2-1-3-2 e per azzurro 3-2-1-3. Ritrovano tutte la configurazione di partenza. Se si ha una particella contenuta ad esempio nel fluido rosa, più piccola della larghezza della componente stessa, questa di fatto cambierà posizione insieme alla componente; quindi sarà in posizione 1-3-2 e tornerà in 1 dopo 3 ostacoli. 8 Prochilo/Ricciardi 16 Bionanotecnologie (Ciardelli) 25/03/2022 Invece una particella più grande (fig. C) della larghezza di un componente parte nella posizione 2, trova l’ostacolo, proverà a spostarsi dalla posizione 2 alla 1 ma essendo troppo grande tenderà a venire spinta di nuovo verso la posizione originale; quindi tenderà a rimanere ad ogni ostacolo sempre nella solita posizione e lo stesso farà quando incontra il terzo ostacolo. Quindi se si progetta adeguatamente la dimensione, il numero degli ostacoli e la velocità del flusso si possono separare particelle grandi da quelle piccole in modo selettivo. Questo è dimostrato con due tipi di particelle colorate con due coloranti fluorescenti (in figura verde per quella di 400 nm e rosso per quella di 1 micron). La particella rossa di fatto rimane sempre nella stessa posizione, mentre la verde che è più piccola viene deviata. All’inizio si ha una certa distanza ed alla fine si ha una distanza molto maggiore tra le due particelle, sfruttando il flusso laminare e la dimensione del dispositivo di tipo nanometrico. Le particelle più piccole di fatto seguono il flusso che viene deviato, mentre quelle più grandi tentano di seguire il flusso ma subiscono l’ostacolo meccanico che li riporta in posizione. È come se nell’ esempio 3) si avessero le cellule più grandi della sezione del canale di raccolta ed a quel punto non si riuscirebbe a staccarle selettivamente, una parte della cellula si staccherebbe ed un’altra no, interferendo con le altre regioni. Per quanto riguarda la deviazione, bisogna mettere un numero di ostacoli/livelli sufficientemente alto per ottenerla; con pochi ostacoli anche la particella piccola potrebbe restare nella posizione iniziale. Benefici della nanoscala – High Throughput screening La micro e nanoscala permette quindi di creare dei dispositivi che possono far avvenire reazioni chimiche più velocemente ed analizzare campioni più velocemente avendo a disposizione meno analita. Questo può avere grande importanza nel “high troughput screening” (screening ad alta produttività). È come se si facessero tante operazioni di identificazione e reazioni allo stesso tempo. Ad esempio nell’ambito del drug discovery (scoperta dei farmaci) è noto che interferire con certi recettori cellulari può essere una buona terapia per la cura dei tumori e i biologi molecolari scoprono molto spesso nuovi bersagli da colpire per uccidere le cellule tumorali o impedirne i processi metabolici. Tuttavia, far diventare questa un’effettiva cura per i tumori non è banale perché bisogna cercare delle molecole candidate ad interferire con tali bersagli. Da un lato la biochimica riesce a sintetizzare un grande numero di tali molecole e dall’altro sono noti tanti bersagli possibili, perciò il numero di esperimenti necessari per testare tutte le molecole su tutti i bersagli è dato dal prodotto del numero di molecole per il numero di target terapeutici potenziali ed è estremamente elevato. 9 Prochilo/Ricciardi 16 Bionanotecnologie (Ciardelli) 25/03/2022 Se si hanno tanti target e tante molecole, perché la chimica ne produce tante anche con piccole differenze dal punto di vista strutturale, e si fa il prodotto si ottiene un numero altissimo di test da fare. Tra l’altro questi test avvengono in presenza di reagenti e solventi molto puri, perché non ci si può permettere di sbagliare, e in essi sono impiegati saggi biologici per verificare che colpendo un certo target si ha effettivamente fatto una modifica di un percorso metabolico. Si ha bisogno quindi di materiali costosi e di fare tanti esperimenti. Questo non sarebbe economicamente sostenibile senza le tecnologie “high throughput” in cui si miniaturizzano i volumi, si usano meno reagenti perché si ha bisogno di quantità minori ed in più le reazioni nei piccoli volumi vanno più velocemente, quindi si risparmia anche tempo. Questi strumenti sono di grande importanza per le case farmaceutiche. Con l’high throughput si può: fare farmacologia per testare l’azione di farmaci e molecole o scoprirne di nuovi (es. si possono avere a disposizione anche farmaci non sintetizzati chimicamente ma di origine naturale) oppure per testare la nocività delle sostanze applicarlo in genetica per scoprire nuovi target o identificare mutazioni con l’analisi high throughput del DNA vedere l’interazione tra le proteine, selezionare primer per iniziare il processo di amplificazione del DNA con la PCR. Si possono identificare nuove molecole che regolano processi biologici. Da questo lavoro si genera una gran mole di dati, quindi servono sistemi automatici di analisi e strumenti computazionali per andarli a razionalizzare. Benefici della nanoscala – Miniaturizzazione & high throughput C’è quindi una spinta verso l’aumento della miniaturizzazione e conseguentemente del numero degli esperimenti che posso effettuare in contemporanea e velocemente ma ci sono limiti tecnologici a questa spinta. Si sono già viste prima le dimensioni che permettono di arrivare a volumi di reazione inferiori al microlitro e in figura si vede il numero di reazioni e quindi di cellette reattive presenti in un solo plate che si riescono a produrre (si pensi alle memorie dei computer che sono diventate sempre più piccole, a parità di quantità di dati immagazzinabili). Il numero di reazioni per chip che si possono fare è dovuto al fatto che volumi molto piccoli sono associati a poche quantità di liquidi che possono quindi facilmente evaporare, rimanendo a secco; il maneggiamento dei liquidi per riempire questi recipienti può essere difficoltoso e possono esserci 10 Prochilo/Ricciardi 16 Bionanotecnologie (Ciardelli) 25/03/2022 fenomeni di assorbimento superficiale (la superficie aumenta significativamente rispetto al volume per volumi piccoli) e quindi si ha bisogno di robot molto precisi ed in certi casi non esistono ancora robot adeguati a queste operazioni. Benefici della nanoscala – Riduzione di reagenti e costi Se è vero che i sistemi microfluidici possono soddisfare la crescente domanda di saggi high throughput si può aggirare questo problema con la tecnologia della microfluidica a goccia. Storicamente i saggi si facevano in piastre da cultura cellulare che contenevano 36 o 98 cilindretti cavi in cui si faceva l’esperimento; in realtà si è poi passato a svolgere le stesse operazioni nei microcanali (microfluidica tradizionale di cui si è parlato fino ad ora). L’idea è passare a sistemi in cui la regione reattiva è una semplice goccia di liquido sospesa in un olio (droplet microfluidics). Questi sistemi in emulsione permettono di creare oggetti di dimensione molto piccola con volumi di nano e fentolitri perché sono di diametro del micron o anche minore. Questo (figura a pag. seguente) è un esempio preso da un articolo di Rossow. I tradizionali saggi biologici studiano il comportamento di un numero elevato di cellule su substrati 2D e quindi in ciascuno dei pozzetti (cilindretti citati prima) si ha un numero di cellule molto alto. Di fatto si ottiene un’indicazione, un comportamento che è la media del comportamento di varie cellule ed una cellula non è esattamente uguale all’altra, sono comunque organismi viventi con una loro variabilità. La droplet microfluidic, oltre a superare alcuni limiti tecnologici, permette anche l’incapsulamento di singole cellule o permette di comporre strutture tridimensionali a partire da singole cellule con controllo della dimensione della struttura. 11 Prochilo/Ricciardi 16 Bionanotecnologie (Ciardelli) 25/03/2022 Nell’esempio riportato si alimentano cellule da uno dei canali, da un altro si alimenta PEG polietilenglicole (-CH2-CH2-O-) in arancione a cui sono stati aggiunti gruppi SH che serviranno dopo; dall’altra parte si alimentano microsfere di microgel di poliglicerolo acrilato (cioè con l’aggiunta di gruppi acrilici derivanti dall’acido acrilico CH2=CH-COOH di cui serve il doppio legame). Dalle entrate in basso si va ad alimentare l’olio e si crea l’emulsione. I polimeri in acqua creano l’emulsione e poi cominciano a mescolarsi tra loro. In regione C (fig. A) si crea l’emulsione ed in zona D cominciano a reagire tra loro, quindi reagisce l’SH col doppio legame; si creano dei crosslink formando un gel ancora più strutturato in ciascuna delle goccioline che rimangono separate perché tra di esse c’è l’olio. Questo gel poi incapsula le cellule. Le cellule sono vive perché dal saggio Live Dead (fig. G), in cui si aggiunge un colorante che si colora di verde in corrispondenza delle cellule vive e di rosso in corrispondenza di quelle morte, si vedono pochi spot rossi rispetto a tutti i verdi. Quindi questo è l’esempio di un sistema microfluidico per incapsulare cellule e microparticelle di PEG tiolato (con gruppo SH) e poliglicerolo. Il sistema realizza un’emulsione acqua in olio e si ottengono delle capsule che contengono cellule vive ed in grado di proliferare. Riducendo la scala di queste goccioline si può arrivare anche a fare i sistemi single cell dove si analizzano le singole cellule. Domanda: Come si varia la scala delle drops e la quantità di contenuto che assorbono? Non è facile controllare questi due parametri: si può variare la velocità dei flussi, cioè la quantità di olio che si alimenta rispetto alla quantità di polimeri e cellule che si alimenta; in questo modo si può regolare in parte la dimensione delle particelle ed in parte il numero di cellule che vanno ad inserirsi nelle varie gocce. BIOMEMS – in vivo application Una curiosità è un oggetto denominato capsula per endoscopia. È una capsula che serve ad effettuare la gastrocolonscopia in maniera non invasiva. Si ingerisce la pillola, questa attraversa il tratto digestivo senza venire modificata e quando arriva all’intestino comincia a comunicare con una fascia messa intorno all’addome che riceve i segnali trasmessi dalla capsula. Si può così vedere lo stomaco, il colon, l’intestino piccolo, il retto senza dolore e senza sedazione, potendo analizzare 12 Prochilo/Ricciardi 16 Bionanotecnologie (Ciardelli) 25/03/2022 così tutte queste zone. Si ottengono immagini tridimensionali a colori e si possono così fare diagnosi accurate a seconda della patologia scoperta. L’oggetto è molto piccolo (27mm*11mm) e consta di una telecamera, luci LED, microchip, batteria ed un trasmettitore con antenna che invia i segnali all’esterno. Domanda: Riguardo i microfluidi alla slide 22, come mai dopo tre passaggi il fluido torna proprio nella configurazione di partenza? È per via della disposizione geometrica degli ostacoli? Si, si sposta tutte le volte di un terzo di lambda, per come sono spostati gli ostacoli si ha uno spostamento di un terzo ogni volta; dopo averlo fatto 3 volte si torna al punto di prima. [Filmato https://www.youtube.com/watch?v=mXv-TjLIkZE] 13 Carone/Carrozza 17 Bionanotecnologie (Boffito) 30/03/2022 Tecniche di caratterizzazione di materiali polimerici Organizzazione delle esercitazioni: sono a gruppi ma i gruppi non sono definiti, si può lavorare anche da soli. Le esercitazioni consistono nel vedere graficamente come vengono analizzati dei risultati ottenuti applicando ciò che si è visto dal punto di vista teorico. La prima esercitazione sarà sulla cromatografia ad esclusione molecolare, la seconda sarà sull’analisi in spettroscopia a risonanza magnetica nucleare, spettroscopia infrarossa e analisi termica. Il percorso che si farà è focalizzato sul modo in cui ci si approccia alla caratterizzazione di materiali polimerici. Sono stati visti i polimeri e come vengono sintetizzati, con delle tecniche di caratterizzazione meccanica, ora si analizzeranno altre tecniche che permettono di avere delle informazioni sulle proprietà chimiche dei materiali polimerici. In particolare, permettono di verificare se la sintesi di un materiale polimerico già fatto in laboratorio è avvenuta con successo, studiare se i materiali subiscono delle degradazioni. Ad esempio, se si è fatto un trattamento termico, si verifica se il materiale ha mantenuto le caratteristiche originarie o se le ha cambiate. Si vedranno approcci che permettono di caratterizzare i materiali dal punto di vista delle proprietà superficiali. Questo è utile quando si ha un substrato e si modifica la superficie ad esempio decorandola con delle proteine per indurre una certa risposta biologica. Outilne • • • ▪ ▪ ▪ ▪ Si capisce perché è importante fare questo tipo di caratterizzazioni. Quali sono le tecniche che si possono usare in base al tipo di informazione che voglio raccogliere. Ci si focalizza su alcune tecniche, come le tecniche spettroscopiche andando ad approfondire 2 tecniche di elezione che sono: o Spettroscopia a risonanza magnetica nucleare (NMR). o Spettroscopia infrarossa (IR). Si parlerà di tecniche cromatografiche focalizzandosi su: o Cromatografia ad esclusione molecolare (SEC): tecnica che viene usata per avere informazioni sulla distribuzione dei pesi molecolari dei materiali polimerici. Tecniche spettroscopiche: o Spettroscopia ad effetto fotoelettronico (XPS): rientra in una famiglia a sé stante. È una tecnica che serve per fare un’analisi superficiale. Restituisce come feedback un’informazione sulla composizione chimica della superficie dei materiali. Tecniche di caratterizzazione termica: o Calorimetria a scansione differenziale (DSC): dà informazione su temperature di transizione vetrosa, temperature di cristallizzazione e di fusione. o Analisi termogravimetrica (TGA): permette di studiare i processi di degradazione termica, con la degradazione indotta dall’aumento della temperatura. Si introduce il concetto di degradabilità dei materiali polimerici, preparatorio in vista dell’esercitazione n. 3, focalizzata su questo. L’importanza di caratterizzare i biomateriali Ci si focalizza sul perché è importante svolgere un’analisi di caratterizzazione chimica e termica dei materiali polimerici. In particolare, in questa lezione si analizza la prima tecnica spettroscopica ossia l’analisi in spettroscopia in risonanza magnetica nucleare. Perché è importante fare caratterizzazione di materiali polimerici? 1 Carone/Carrozza 17 Bionanotecnologie (Boffito) 30/03/2022 Ci si inserisce in un contesto di una grande famiglia di materiali, i polimeri, che negli ultimi decenni hanno attratto molta attenzione nel settore biomedicale. I motivi principali per cui questa famiglia ha attratto interesse sono: ➢ Una buona parte dei polimeri presenta versatilità chimica: esistono ad esempio i polimeri a blocchi in cui, in base ai blocchi selezionati, si può ottenere in uscita da un processo di sintesi dei materiali con prestazioni completamente differenti. La versatilità chimica viene sfruttata per modulare le prestazioni dei materiali che si usano. In ingegneria tissutale questo fa sì che si possa ottimizzare un processo di sintesi di un polimero in modo tale da ottenere un materiale con prestazioni meccaniche più adatte. Ad esempio per applicazioni nell’ingegneria dei tessuti soft, dove si ha bisogno di elevata elasticità oppure dall’altra parte si può ingegnerizzare polimeri per applicazioni in hard tissue engineering quindi nell’ingegneria dei tessuti ossei. ➢ Altra caratteristica che accomuna i polimeri è la biocompatibilità. ➢ La biodegradabilità modulabile: a seconda dei monomeri, dei blocchi, che si hanno lungo la catena polimerica si può modulare la cinetica di degradazione del materiale e si possono avere dei polimeri biostabili cioè polimeri che non incorrono in degradazione. Dal punto di vista della biodegradabilità, in base ai monomeri che si hanno lungo la catena si può avere dei polimeri che degradano con tempi più o meno lunghi in base alla necessità dell’applicazione prevista. Ad esempio, se si vuole un polimero che degrada più velocemente si può includere nella catena polimerica dei blocchi più facilmente degradabili ad esempio blocchi più suscettibili ad una degradazione da parte di specifici enzimi. ➢ Facile funzionalizzazione (sia in massa che in superficie): ▪ Quando si parla di funzionalizzazione in massa si parla di un processo di funzionalizzazione che avviene a carico delle catene polimeriche, ad esempio si può fare una funzionalizzazione in massa anche durante la sintesi di un polimero. Facendo un polimero multiblocco si possono selezionare opportunamente i blocchi in modo tale che lungo le catene si abbiano dei motivi ben definiti. Esistono processi di sintesi che permettono di includere in catena delle sequenze peptidiche quindi in uscita si avranno catene polimeriche con specifici motivi amminoacidici che permettono di traghettare una specifica risposta biologica piuttosto che modulare la degradabilità. ▪ Quando si parla di funzionalizzazione in superficie si fa riferimento a tutti i processi che vanno a modificare la superficie di un substrato polimerico. Non si va a modificare tutte le catene in massa ma solo la componente superficiale del substrato che si fa su uno scaffold o una matrice che è stata già fabbricata. Sfruttando questa versatilità chimica si può fare in modo che sulla superficie dei substrati ci siano dei gruppi funzionali che si possono usare per attaccare sequenze peptidiche o proteine. Tipicamente i gruppi funzionali che si utilizzano nelle modifiche superficiali sono o gruppi carbossilici o gruppi amminici. Si può fare in modo di averli già sfruttando la versatilità chimica della sintesi polimerica o si può in alternativa aggiungerli durante il processo di funzionalizzazione. ➢ Proprietà termiche e meccaniche altamente modulabili. Tutto parte dalla versatilità chimica, da cui deriva tutto ciò che è stato elencato. È quindi fondamentale andare a conoscere in modo approfondito le proprietà strutturali e molecolari dei materiali polimerici in modo che si possa sfruttare la loro versatilità chimica per fare una ingegnerizzazione ad-hoc del polimero che voglio utilizzare per una specifica ingegnerizzazione. Molto spesso la conoscenza 2 Carone/Carrozza 17 Bionanotecnologie (Boffito) 30/03/2022 delle proprietà strutturali alla nanoscala e delle proprietà chimiche permette di interpretare le proprietà che si visualizzano alla macro-scala. Osservando una certa proprietà meccanica, conoscendo le caratteristiche chimico-strutturali alla nanoscala si riesce a interpretare e a giustificare quello si osserva alla macro-scala. Lo stesso vale in termini di risposte biologiche post-impianto. Per poter conoscere le proprietà chimico-strutturali è fondamentale fare riferimento a delle tecniche di analisi che siano riproducibili, rapide, accurate e sensibili. Questo anche nell’ottica di aumentare la riproducibilità di quello che si fa e far sì che, ragionando a livello di ricerca in laboratorio, quello che si fa possa essere replicato da altri e che si possano fare le stesse caratterizzazioni che sono state svolte da me ottenendo gli stessi risultati. Quindi nell’ottica di espandere la conoscenza da altre parti. Se si utilizzano delle tecniche riconosciute, accurate e sufficientemente sensibili quello che si fa personalmente può essere svolto da qualcun altro da un’altra parte e questo aumenta la confrontabilità dei risultati che si ottengono. Tecniche di caratterizzazione dei polimeri Si vedono le principali categorie di tecniche utilizzate per la caratterizzazione di materiali polimerici: ❖ TECNICHE SPETTROSCOPICHE -> Permettono di ottenere delle informazioni sulle caratteristiche chimiche dei materiali e permettono anche di avere informazioni sulle interazioni che intercorrono a livello molecolare all’interno delle catene polimeriche del materiale che si sta analizzando. Ad esempio, nella spettroscopia NMR è possibile anche ottenere informazioni sull’intorno chimico di un nucleo atomico. Non si hanno solo informazioni su ciò che analizzo, ad esempio un protone, ma anche informazione su cosa c’è attorno a lui. A seconda della tecnica spettroscopica usata si ha possibilità di avere informazioni su un singolo materiale, sulle informazioni che intercorrono all’interno di quel materiale tra le catene polimeriche, sull’environment chimico dei nuclei atomici e su eventuali interazioni che intercorrono tra gruppi funzionali pendenti sulle catene. ❖ TECNICHE DI CARATTERIZZAZIONE SUPERFICIALE -> Sono tecniche che forniscono informazioni sulle caratteristiche superficiali di biomateriali e quando si parla di caratteristiche superficiali si parla sia di caratteristiche strutturale morfologica ma anche di caratteristiche della composizione chimica della superficie di un biomateriale. ❖ TECNICHE DI CARATTERIZZAZIONE TERMICA -> Danno informazioni sulle proprietà termiche di un materiale. Quando si parla di proprietà termiche si fa riferimento a informazioni su come un materiale si comporta al variare delle temperature: temperatura di fusione, di cristallizzazione e temperatura di transizione vetrosa. Si possono avere informazione sul grado di cristallinità del materiale. Studiare il comportamento termico implica anche studiare la degradabilità termica di un materiale e la sua stabilità a certe temperature. Questo è importante perché se si sviluppano nuovi materiali e si vuole processare allo stato fuso, per esempio con la tecnica di prototipazione rapida che sfrutta la fusione del materiale. Ma se il materiale è nuovo, non è mai stato fatto, è necessario capire a che temperatura fonde per aver un’idea di cosa settare sullo strumento. Al tempo stesso si deve capire se il materiale mantenuto per tanto tempo ad una certa temperatura si degrada. La caratterizzazione termica al di là della ricerca di base ha delle implicazioni quando si vuole processare un polimero allo stato fuso. ❖ TECNICHE DI CARATTERIZZAZIONE MECCANICA -> Fornisce informazioni di tipo meccanico dei materiali che vengono sottoposti ad un certo tipo di sollecitazione. Si possono avere informazioni sul comportamento a trazione, a compressione oppure a fatica o anche sotto applicazione di sollecitazioni di tipo sinusoidale. Ripartendo da queste classificazioni si vedono le principali tecniche che appartengono a ciascuna famiglia. 3 Carone/Carrozza 17 Bionanotecnologie (Boffito) 30/03/2022 ❖ TECNICHE SPETTROSCOPICHE: ▪ Spettroscopia infrarossa (IR). ▪ Spettroscopia fotoelettronica a raggi X (XPS): è una tecnica che va a fare un’analisi superficiale del substrato che si analizza dando in uscita informazioni sulla sua composizione dal punto di vista chimico. Questa è la tecnica di elezione quando si fanno delle modifiche superficiali. Se si ha un substrato e lo si modifica in superficie andando a decorarlo o facendo un rivestimento ad esempio con una proteina, confrontando il campione prima e il campione dopo con questa tecnica ci si rende conto che la composizione chimica della superficie del materiale è cambiata quindi si può verificare se il rivestimento si è formato con successo. Se il rivestimento è legato covalentemente al substrato con la tecnica XPS si riesce a verificare la formazione del legame covalente di cui ci si aspettava la creazione tra la proteina e il substrato polimerico. ▪ Spettroscopia in risonanza magnetica nucleare (NMR). ▪ Spettroscopia RAMAN: va ad analizzare dei fenomeni di scattering di una radiazione elettromagnetica. Una radiazione elettromagnetica va a colpire il campione, viene scatterata e si va ad analizzare la radiazione dopo che è avvenuta questa interazione con il campione. Non verrà studiata nel dettaglio, basta ricordare che va ad analizzare dei fenomeni di scattering di radiazione elettromagnetiche che incidono sul campione e vengono scatterate. ▪ Spettroscopia a diffrazione a raggi X (XRD) è una tecnica che permette di avere delle informazioni sulla struttura cristallina ei materiali. ❖ TECNICHE DI CARATTERIZZAZIONE SUPERFICIALE: A questa categoria appartengono tutte le ottiche, che a diverse scale e con diversi gradi di risoluzione permettono di avere informazioni sulle caratteristiche superficiali e sulla morfologia del substrato che si sta analizzando: ▪ Microscopia ottica. ▪ Microscopia a scansione elettronica (SEM). ▪ Microscopia a trasmissione elettronica (TEM). ▪ Microscopia a forza atomica (AFM). ▪ Angolo di contatto: si utilizza se si vuole fare caratterizzazione superficiale andando ad analizzare la bagnabilità della superficie. Va a depositare una goccia sulla superficie del substrato, normalmente si utilizza acqua (ciò che è più simile ai fluidi biologici), e tramite delle ottiche si va a fotografare la morfologia che la goccia d’acqua di volume noto assuma nel momento in cui si deposita gentilmente sul substrato. In base alla geometria della goccia, tramite dei software, si riesce a determinare l’angolo all’interfaccia goccia-substrato, e ad avere informazioni sulla struttura più idrofobica o idrofilica del materiale. Angoli di contatto superiori a 90° identificano substrati idrofobici, sotto i 90° i substrati vengono definiti idrofilici. Più l’angolo di contatto è piccolo, più il substrato avrà proprietà idrofiliche. Questo tipo di analisi si utilizza anche per le modifiche superficiali perché durante la modifica superficiale ci si aspetta che la bagnabilità dei substrati possa cambiare. Se si ha come substrato un substrato in policaprolattone (PCL), ossia un polimero sintetico altamente idrofobico; se si mette una goccia su di esso la goccia tenderà a restare tondeggiante cioè a minimizzare la superficie di contatto con il substrato idrofobico e si avranno angoli superiori 4 Carone/Carrozza 17 Bionanotecnologie (Boffito) 30/03/2022 a 90°. Facendo una modifica superficiale del substrato di policaprolattone, aggiungendo una proteina come collagene e cheratina, ci si aspetta che la bagnabilità del substrato cambi. In particolare, che aumenti l’idrofilicità così quando si andrà a depositare la goccia, essa tenderà ad appiccicarsi sul substrato. Non manterrà più la formo tonda ma andrà ad aderire al substrato, a massimizzare l’area di contatto con il substrato. L’angolo di contatto si abbassa. Questa è una prova indiretta che si è formato un coating sul policaprolattone. ❖ TECNICHE DI CARATTERIZZAZIONE TERMICA: ▪ Calorimetria a scansione differenziale (DSC) per avere informazioni di cristallinità, temperatura di fusione, temperatura di cristallizzazione, temperatura di transizione vetrosa. ▪ Analisi termica dinamo-meccanica (DMTA). ▪ Analisi termogravimetrica (TGA): per avere informazioni sulla stabilità termica quindi sul fatto che il polimero sia più o meno stabile ad una certa temperatura e sulla cinetica con cui avviene una certa degradazione termica con l’aumentare della temperatura. È un’analisi che si può fare a temperatura costante e in questo modo si vede se il polimero si degrada nel tempo o a temperature variabili per capire a che temperatura inizia la degradazione e si avviene correttamente. ❖ TECNICHE DI CARATTERIZZAZIONE MECCANICA: ▪ Prove di trazione. ▪ Prove di compressione. ▪ Prove di fatica. ▪ Prove di creep: sono prove dove si va a monitorare la deformazione del materiale nel tempo. Si applica una deformazione costante e poi si monitora cosa succede nel tempo. Ad esempio con le prove di creep si può studiare se le catene polimeriche tendono a riarrangiarsi, se sottoposte a una sollecitazione. Immaginando un polimero come un gomitolo di catene, se lo si sollecita con una deformazione costante nel campo elastico, lo si tira leggermente, il gomitolo inizierà inizialmente a tirarsi ma poi progressivamente le catene nel gomitolo continueranno a sentire la sollecitazione data e a orientarsi nella direzione della sollecitazione. Anche se non si sta ancora tirando, il campione cambierà. Si vede come si modifica il campione con il suo allungamento nel tempo. ▪ Analisi termica dinamico-meccanica (DMTA) è messa in 2 categorie, sia tra la caratterizzazione termica che meccanica. Come dice il termine stesso è un’analisi termica e meccanica. Permette di avere informazioni su come cambiano le proprietà meccaniche al variare della temperatura. È una tecnica che si può sfruttare per vedere temperature di transizione vetrosa. Se la transizione vetrosa è ad una temperatura bassa a volte con la DSC non si vede perché non si riesce ad andare sufficientemente in basso con la temperatura allora la si vede con la DMTA. La DMTA è un’analisi termodinamico meccanica perché studia come cambiano le proprietà meccaniche ad una temperatura costante o al variare della temperatura. 5 Carone/Carrozza 17 Bionanotecnologie (Boffito) 30/03/2022 Caratterizzazione chimico-strutturale Ci si focalizza sulle tecniche spettroscopiche. Sono tecniche che permettono di: ▪ Studiare le caratteristiche chimiche di un biomateriale. Ad esempio, possono essere utilizzate per verificare se la sintesi del biomateriale è avvenuta con successo, e se effettivamente si sono formati i legami chimici di cui si era prevista la formazione. ▪ Verificare se ci sono delle impurezze, non tutte ma alcune permettono di farlo. ▪ Studiare le interazioni che avvengono a livello molecolare tra le catene polimeriche ed eventuali gruppi funzionali che si hanno lungo le catene. Le tecniche principalmente utilizzate a questo scopo sono: ➢ SPETTROSCOPIA A RISONANZA MAGNETICA NUCLEARE (NMR). ➢ SPETTROSCOPIA RAMAN. ➢ SPETTROSCOPIA INFRAROSSA (IR). Ciò che accomuna queste tecniche è il fatto di essere non invasive. Si tratta di analisi che non alterano le proprietà dei materiali e che consentono l’esecuzione di analisi prolungate nel tempo; i tempi di analisi sono relativamente corti ma si riesce ad analizzare più volte lo stesso campione andando a mediare i risultati in modo tale da ottenere un segnale con un risultato che è il più pulito possibile. Non alterando le proprietà dei materiali, in uscita dall’analisi, il campione può essere utilizzato per svolgere altro. Un setup dell’analisi IR, cioè della spettroscopia infrarossa, permette di analizzare il campione senza fargli nulla e poi usarlo senza buttarlo. Tecniche spettroscopiche Alla base di tutte queste tecniche c’è lo studio delle interazioni che intercorrono tra il campione che si sta analizzando e radiazioni elettromagnetiche. A seconda della natura della radiazione elettromagnetica che utilizzo si rientra in un’analisi piuttosto che un’altra e in uscita si avranno informazioni differenti e con un grado di dettaglio differente. Indipendentemente dalla caratteristica di questa radiazione elettromagnetica che si utilizza, si hanno informazioni sulla struttura del campione cioè sulla struttura della materia, sul microambiente che lo circonda e sulla chimica molecolare. L’idea è quella di avere il sample, il campione, che viene colpito con una radiazione elettromagnetica. Nel momento in cui la radiazione elettromagnetica colpisce il campione avranno luogo delle interazioni tra radiazione e campione quindi in uscita si avrà un segnale prodotto proprio da questa interazione avvenuta tra campione e radiazione elettromagnetica. Questo segnale viene letto da uno spettrometro che va ad analizzarlo e rielaborarlo dando in uscita uno spettro. Dall’analisi dello spettro si ottengono le informazioni elencate precedentemente. Si sfrutta l’interazione tra la materia e la radiazione elettromagnetica per avere in uscita informazioni sulle proprietà chimiche del campione analizzato. 6 Carone/Carrozza 17 Bionanotecnologie (Boffito) 30/03/2022 A seconda della natura della radiazione elettromagnetica si hanno delle analisi spettroscopiche differenti. Nelle tecniche spettroscopiche si trovano tante tecniche di analisi differenti a seconda della radiazione elettromagnetica che si utilizza. Se si considera tutto lo spettro delle radiazioni elettromagnetiche, a seconda di dove vado a selezionare la radiazione si hanno in uscita tecniche spettroscopiche differenti. Quando si utilizza una radiazione elettromagnetica nel campo delle onde radio, si conduce un’analisi di spettroscopia di risonanza magnetica nucleare (NMR). Se si passa alle microonde, si utilizza una spettroscopia EPR che sta per risonanza paramagnetica elettronica. (non verrà approfondita, usa una radiazione elettromagnetica nel campo delle microonde. Viene utilizzata per individuare e caratterizzare delle specie chimiche con uno o più elettroni spaiati. Per esempio, viene utilizzata quando vengono svolte delle reazioni radicaliche per capire se effettivamente si è formato il radicale di cui ci si aspetta la formazione.) Andando avanti si entra nel campo dell’infrarosso la spettroscopia che si utilizza è la spettroscopia infrarossa (IR). Quando si arriva al visibile e all’UV la tecnica è la spettroscopia UV-Visibile, va a studiare le interazioni che intercorrono tra il campione e radiazioni nel campo dell’UV o dell’infrarosso. Spostandosi ancora si arriva nel campo dei raggi X e la spettroscopia che utilizza queste radiazioni è la spettroscopia XRD cioè la spettroscopia a diffrazione a raggi X, permette di avere informazioni sulla composizione cristallina del campione che si sta andando ad analizzare. Infine, abbassandosi ancora in energia, si arriva nel campo dei raggi gamma in cui la tecnica spettroscopica che utilizza questo campo è la spettroscopia Mossbauer, non viene utilizzata nella chimica organica ma nella chimica inorganica. Funziona in maniera analoga a quello che si vede per l’NMR ma si va a considerare componenti inorganici come il Ferro. È un’analisi spettroscopica che permette di identificare la presenza all’interno di un campione che viene analizzato di elementi come Ferro, Nichel, Zinco e Argento; viene applicata prevalentemente nella chimica inorganica piuttosto che nella chimica organica. Se si usa per la chimica organica è perché ad esempio si vuole vedere se nel campione ci sono delle contaminazioni di elementi inorganici come la contaminazione del ferro. A seconda di dove capito nello spettro delle radiazioni elettromagnetiche si hanno tecniche spettroscopiche diverse e diverse tipologie di interazioni che intercorrono tra il campione e la radiazione elettromagnetica. Se sono nel campo dei raggi X, quindi si utilizza la spettroscopia XRD, il tipo di interazione è un’interazione di diffrazione. Si ha una radiazione elettromagnetica che colpisce il campione, viene diffratta e si va a studiare la diffrazione che si produce nel momento in cui la diffrazione va ad incidere sul substrato. 7 Carone/Carrozza 17 Bionanotecnologie (Boffito) 30/03/2022 Nel campo dell’ultravioletto il tipo di interazioni / transizioni che avvengono sono transizioni di tipo elettronico perché l’interazione della radiazione con il campione va a produrre delle transizioni tra gli elettroni; quindi, sono transizioni a carico dei livelli energetici degli elettroni. Lo stesso avviene anche nel campo del visibile. Nel campo dell’infrarosso le transizioni che avvengono sono di tipo vibrazionale cioè si hanno fenomeni di vibrazione di un nucleo rispetto alla sua posizione di equilibro. Lo spettro della spettroscopia a infrarosso si genera per effetto delle vibrazioni e in base a dove i segnali vanno a comparire nello spettro si può identificare cosa è vibrato e in che modo è vibrato. Questo perché i nuclei possono vibrare in modo differente a seconda della lunghezza d’onda della radiazione che va a colpirlo all’interno del campo dell’infrarosso. Se sono nella regione delle microonde le transizioni sono di tipo rotazionale. Studio fenomeni di rotazione dell’intera molecola. Se sono nel campo delle onde radio in cui avviene la spettroscopia NMR avvengono delle transizioni di tipo nucleare (non riportato in figura). Si analizzano dei fenomeni che avvengono a livello dei nuclei atomici. Cosa studia la spettroscopia? A seconda di dove capito e in base al tipo di transizioni che avvengono si possono avere delle tecniche di spettroscopia ad assorbimento, di emissione o di scattering. ▪ Spettroscopia ad assorbimento: A questa categoria appartengono la spettroscopia NMR, spettroscopia infrarossa e la spettroscopia UV-Visibile. Si ha una radiazione elettromagnetica che colpisce il campione e che viene parzialmente assorbita. Si va a studiare cosa succede alla radiazione incidente per effetto dell’interazione e dei fenomeni di assorbimento che avvengono. Una parte dell’energia della radiazione viene assorbita dal campione per effetto delle transizioni. ▪ Spettroscopia di emissione: Spettroscopia in cui atomi o molecole vengono eccitati e per effetto di questi fenomeni di eccitazione passano a stati energetici più elevati. Quello che studio è ciò che viene poi emesso nel momento in cui si ha la transizione da questi stati energetici eccitati più elevati o stati energetici di equilibrio. A questa categoria appartiene ad esempio la spettroscopia in fluorescenza. Si studia ciò che viene emesso dal campione per effetto di un’eccitazione. ▪ Spettroscopie di scattering: Sono quelle in cui si studia come una radiazione incidente viene scatterata. Si sono viste tecniche in cui una radiazione incidente viene riflessa/rifratta/scatterata sul campione. A questa categoria appartengono la spettroscopia Raman e la XRD. Spettroscopia in risonanza magnetica nucleare (NMR) Gli strumenti NMR sono molto costosi e molto ingombranti, in foto si visualizza un tubo che è parte dello strumento NMR. È possibile visualizzare in figura la zona in cui avviene l’analisi in cui si inserisce il campione di piccole dimensioni a sua volta inserito in un tubicino. C’è anche necessità di una grossa potenza di calcolo. I segnali registrati sono molto complessi essendo frutto di tante analisi dello stesso campione e devono essere tradotti in uno spettro e mediati. Sono segnali in alcuni casi anche molto 8 Carone/Carrozza 17 Bionanotecnologie (Boffito) 30/03/2022 rumorosi per questo è necessaria un’elevata potenza di calcolo. In figura si intravede una scatola che contiene tutta la parte di calcolo, di trasformazione dei dati grezzi in uno spettro analizzabile. È uno strumento complesso e spesso si ha una persona dedicata all’uso di questo strumento. È costoso, complicato da interpretare e ha bisogno di molta attenzione e manutenzione preventiva. A cosa serve? È una tecnica di analisi standard di polimeri che permette di caratterizzare le molecole dal punto di vista chimico, identificandone o determinandone la struttura chimica a livello molecolare. Da chimici dato uno spettro NMR, analizzando, si potrebbe risalire alla struttura chimica delle catene del campione. Da bioingegneri questa tecnica si utilizza per verificare se si ha ciò che ci si aspettava o se sono state fatte delle modifiche al materiale; serve per verificare che le modifiche siano avvenute con successo. Come tipo di analisi è un’analisi che si presta ad essere sia qualitativa che quantitativa. - Qualitativa dal punto di vista dello spettro, che si presenta con una linea di base e tanti picchi. Dall’analisi dello spettro qualitativamente si può attribuire ogni picco ad una certa quota. Questo si fa andando a confrontare la natura e la posizione del picco con delle tabelle che mi dicono dove ci si aspetta che ogni nucleo dia un segnale in base al proprio environment chimico. Si registra lo spettro, lo si confronta con delle tabelle e dalle tabelle si ha un’informazione su dove i nuclei atomici danno segnale in base al loro environment chimico. Si riesce a verificare ad esempio da questo confronto se effettivamente lo spettro del campione analizzato contiene picchi di cui ci si aspetta la presenza. Esempio: sintesi del poliuretano. Si sintetizza il poliuretano e si vede se effettivamente è quello che si vuole con NMR. Qualitativamente si riesce a dire se si ha ciò che ci si aspetta dal confronto spettro – tabelle. - Quantitativa perché l’area sottesa ai picchi è indicativa di quanto quella specifica entità chimica è presente all’interno del campione. Questo fa si che se è stata fatta una modifica in massa di un materiale tramite l’NMR si riesce a quantificare quello che si è attaccato. È un’analisi che, dato l’elevato grado di risoluzione e sensibilità si presta ad essere qualitativa e quantitativa. Si vedrà che la spettroscopia infrarossa non è quantitativa ma solo qualitativa. Come funziona, cosa si va a studiare? Si studiano le relazioni che intercorrono tra radiazioni nel campo della radiofrequenza e quini tra i 4 e i 900 MHz con il campione. Più nello specifico si analizzano le relazioni che intercorrono tra la radiazione e dei nuclei atomici specifici presenti all’interno del campione. Si parla di nuclei atomici specifici perché non tutti i nuclei atomici possono interagire con la radiazione elettromagnetica nel campo della radiofrequenza. Inoltre, quando si fa analisi NMR si dice allo strumento qual è il nucleo atomico che si vuole analizzare tra quelli possibili. Ogni volta che si fa analisi NMR si definisce che tipo di nucleo atomico si vuole analizzare e di cui si vuole vedere le interazioni che intercorrono tra il nucleo e la radiazione elettromagnetica. Si parla di NRM ma ne esistono tante tipologie in base al nucleo atomico che si prende in esame. 9 Carone/Carrozza 17 Bionanotecnologie (Boffito) 30/03/2022 Quando si fa questo tipo di analisi? Dopo che il campione è stato immerso all’interno di un campo magnetico, per questo motivo si chiama spettroscopia in risonanza magnetica nucleare. Idealmente si ha un campione sottoposto a un processo di magnetizzazione all’interno di un campo magnetico. Una volta applicato questo processo di magnetizzazione si va a colpire il campione con la radiazione elettromagnetica nel campo delle radiofrequenze e lo strumento analizza come il campione interagisce con questa radiazione. Si analizzano le transizioni nucleari che avvengono a carico del nucleo atomico che si è deciso di analizzare. Perché non tutti i nuclei atomici possono essere analizzati con NMR? Perché non tutti sono sensibili al processo di magnetizzazione. Ciò che non risente del processo di magnetizzazione non si può andare ad analizzare con la tecnica. È una spettroscopia di assorbimento, analizza transizioni nucleari cioè a carico dei nuclei atomici non degli elettroni. È qualitativa e quantitativa. Quali sono i nuclei atomici che si possono analizzare con questa tecnica? Tutti quelli che hanno un momento angola nucleare. Appartengono a questa categoria tutti i nuclei atomici che hanno un numero dispari di protoni, un numero dispari di neutroni o entrambe le cose. Il fatto di avere un numero dispari di protoni, neutroni o entrambi fa si che questi nuclei atomici siano in grado di ruotare attorno al proprio asse nucleare (spin). Il fatto di poter ruotare attorno a questo asse fa si che questi nuclei abbiano un momento angolare nucleare e di conseguenza, proprio perché hanno questo vettore momento angolare nucleare, questi nuclei sono responsivi nel momento in cui si vanno a inserire all’interno di un campo magnetico; il campo magnetico va a perturbarli. Si va a studiare cosa attua la radiazione elettromagnetica su questi nuclei atomici che sono stati perturbati con la magnetizzazione. Il vettore momento angolare è caratterizzato da un numero che è il numero quantico di spin nucleare (I) noto, tabellato, dal quale si ricava quanti orientamenti il vettore può assumere nel momento in cui il campione viene inserito all’interno di un campo magnetico. Per ogni nucleo atomico si ha un valore di I ossia il numero quantico di spin nucleare. Noto I si può calcolare quanti orientamenti il vettore può assumere. La formula che determina quanti orientamenti può assumere il vettore è la seguente: 𝟐𝑰 + 𝟏. Se si ha un nucleo per cui I=0, cioè non appartiene alle categorie viste, applicando la formula si ottiene 1. Vuol dire che il vettore momento angolare nucleare può avere solo una direzione. Se si inserisce all’interno di un campo magnetico rimane quello che è, non viene perturbato dal campo magnetico. Dove I è diverso da 0, si ottiene un numero diverso di orientamenti possibili che può assumere il vettore momento angolare nucleare. Questo implica che nel momento in cui il campione viene inserito all’interno del campo magnetico questo va a perturbare gli orientamenti dei vettori momento angolare nucleare dello specifico nucleo che si sta analizzando. In sostanza, non tutti i nuclei atomici sono visibili all’NMR per questo motivo. 10 Carone/Carrozza 17 Bionanotecnologie (Boffito) 30/03/2022 Se si considera il Carbonio 12 (12C), esso ha I=0 perché ha lo stesso numero di protoni e neutroni questo carbonio non lo si può vedere con l’NMR perché non è responsivo. Lo stesso vale per l’Ossigeno 16 (16O), non si può vedere. Analisi NMR fatta più frequentemente: NMR protonico per vedere il protone (1H), isotopo 13 del carbonio (13C) ha un numero quantico di spin I=1,5 e applicando la formula si ottiene 2. Ciò vuol dire che il vettore momento angolare nucleare può assumere 2 orientamenti nel momento in cui viene magnetizzato. L’ultima colonna della tabella dà informazione dell’abbondanza naturale dei diversi isotopi. L’abbondanza naturale, in percentuale, dà un’idea di quanto l’isotopo è presente in natura. Più un isotopo è presente in natura, più ci si aspetta di avere tanti nuclei che rispondono e interagiscono con la radiazione elettromagnetica durante l’analisi del campione. Meno è abbondante in natura l’isotopo, minore sarà il numero di nuclei che rispondono durante l’analisi. A seconda del tipo di analisi NMR che si fa e all’abbondanza naturale del nucleo atomico che si sta analizzando si ottengono spettri più è meno definiti, più o meno puliti. Se si analizza il Protone, avendo un’abbondanza così elevata si hanno tanti nuclei che contribuiscono a formare il segnale e ci si aspetta un segnale ben delineato e ben pulito. Se si analizza il Carbonio 13 il numero di nuclei atomici che contribuiscono a creare il segnale è piccolo. In questo caso i segnali sono più rumorosi, meno definiti e più bassi in altezza dal momento che l’area sottesa e quindi anche l’altezza del picco è informativa sulla quantità dell’entità del campione. Come si risolve questa problematica? Non si riesce completamente ma si fanno tante scansioni. Queste analisi sono relativamente veloci quindi possono essere svolte in maniera ripetitiva sullo stesso campione più volte. Più si fanno scansioni, più si analizza un certo campione più volte, più aumenta la quantità di segnali di cui si fa la media (questo viene fatto in modo automatico dallo strumento), più il campione si pulisce. Se si ha un rumore di fondo o un segnale sporco, quando si va a mediarlo si va a ripulirlo. Si noti che facendo l’analisi al Protone non si ha necessità di fare tante scansioni, perché l’abbondanza naturale è elevata, al massimo vengono svolte 12 scansioni che si eseguono in una decina di minuti. Facendo l’analisi al Carbonio 13 si ha bisogno di più scansioni al punto che queste analisi spesso si fanno andare di notte perché vengono svolte 1024 scansioni. Un altro elemento su cui si può lavorare è la concentrazione del campione. I campioni NMR tipicamente sono campioni allo stato liquido, anche se esistono altri tipi di NMR che utilizzano campioni allo stato solido ci si sofferma sul metodo tradizionale. I campioni sono allo stato liquido, si prende una certa quantità del materiale e si solubilizza in un solvente. Se si vuole aumentare la qualità del segnale si può aumentare la concentrazione del campione ossia mettere più materiale. Sugli isotopi che hanno abbondanza naturale più bassa per aumentare la qualità degli spettri si può aumentare la concentrazione del campione o comunque di default si fanno molte più scansioni rispetto a quelle che si fanno con gli isotopi con abbondanza naturale maggiore. Cosa succede durante l’analisi? Si parte dal campione sottoposto ad una magnetizzazione e poi si va ad analizzare le interazioni che intercorrono tra il campione magnetizzato e la radiazione elettromagnetica nel campo delle radiofrequenze. Idealmente succede che si ha il campione non sollecitato in alcun modo in cui i nuclei atomici; in particolare in questo caso sono orientati in maniera del tutto casuale. Non c’è nulla che induce i vettori del momento angolare nucleare a orientarsi in una certa direzione. 11 Carone/Carrozza 17 Bionanotecnologie (Boffito) 30/03/2022 Questo è lo scenario che si ha su nuclei il cui spin vale ½ come il Protone e il Carbonio 13. Se lo spin vale un mezzo vuol dire che si possono avere 2 possibili orientamenti del vettore momento angolare nucleare. Nel momento in cui si applica un campo magnetico dall’esterno, noto come 𝐵0 e che ha una certa direzione, si ha che i vettori del momento angolare nucleare tenderanno ad orientarsi parallelamente alla direzione del campo magnetico applicato dall’esterno. In realtà alcuni hanno la freccetta del momento del vettore diretta nello stesso verso del campo magnetico applicato, mentre altri avranno il vettore applicato nel verso opposto. Questo è lo scenario nel caso in cui ci siano solo 2 orientamenti possibili. Alla fine del processo di magnetizzazione si hanno i vettori che si sono orientati parallelamente alla direzione del campo magnetico applicato dall’esterno, alcuni avranno lo stesso verso altri verso opposto. A questo punto il campione, quindi i nuclei, vengono irraggiati/colpiti da una radiazione elettromagnetica nel campo delle radiofrequenze. Succede che gli stati ad energia più bassa tenderanno ad assorbire una parte dell’energia portata dalla radiazione elettromagnetica passando ad uno stato energetico più alto. In pratica succede che i vettori azzurri, essendo orientati nello stesso verso del campo applicato dall’esterno, saranno ad uno stato energetico più basso, assorbiranno una parte dell’energia della radiazione elettromagnetica e ruoteranno verso il basso assumendo la configurazione delle frecce rosse. La freccia rossa avendo verso opposto rispetto al campo magnetico corrisponde ad uno stato energetico superiore. Nel momento in cui questo avviene i nuclei sono in condizione di risonanza. Questa transizione nucleare non avviene a qualsiasi frequenza della radiazione elettromagnetica nel campo delle radiofrequenze ma avviene ad una frequenza specifica in base al tipo di nucleo atomico che sto analizzando e al suo environment chimico. Quello che si va a studiare è il segnale di decadimento ossia il processo di rilassamento dei nuclei atomici. Vengono magnetizzati, vengono perturbati con la radiazione elettromagnetica, dopo di che si elimina tutto e si vede come si rilassano ossia come nel tempo recuperano lo status iniziale di orientamento dei vettori momento angolare nucleare. Negli strumenti più vecchi questo processo veniva svolto frequenza dopo frequenza. Si considerava campo della radiofrequenza, si colpiva il campione con una certa frequenza e si analizzava quello che succedeva, così per ogni frequenza finché non si portava il campione in risonanza. Gli strumenti moderni non svolgono più una scansione frequenza per frequenza. Lavorare in questo modo implica un’analisi estremamente lungo ma si ha lo spettro delle frequenze in un’unica ondata. Questo implica che questi strumenti hanno una grossa potenza di calcolo. Nel momento in cui si colpisce il campione magnetizzato con l’onda elettromagnetica che contiene tutte le frequenze, in uscita si ha un segnale di decadimento che viene registrato estremamente complesso e che viene poi tradotto in uno spettro (con picchi) tramite la trasformata di Fourier. Gli strumenti più vecchi erano più immediati da capire perché si analizzava una frequenza alla volta e si vedeva se i nuclei andavano in risonanza a differenza degli strumenti moderni i quali hanno una potenza di calcolo tale per cui si fa interagire tutto lo spettro di frequenza contemporaneamente, si registra un segnale di decadimento molto complesso e poi con la trasformata di Fourier si ottiene uno spettro. Questo ha reso l’analisi più veloce e che le 1024 scansioni che spesso si svolgono del carbonio 13 siano fattibili in determinate ore e non in giorni (cosa che accade usando strumenti di vecchia generazione). Si vedrà successivamente come il segnale di decadimento che si registra viene tradotto in uno spettro. 12 Di Giacinti/Impagnatiello 18 Bionanotecnologie (Boffito) 31/03/2022 Spettroscopia in risonanza magnetica nucleare (NMR) Ricapitolando: Ѐ stato già introdotto come l’NMR sia una spettroscopia ad assorbimento che va ad analizzare transazioni nucleari che avvengono a livello di nuclei atomici quando essi si trovano ad interagire con radiazioni nel campo delle onde radio. Parallelamente è stato detto che non tutti i nuclei atomici possono essere visualizzati quindi identificati con questa tecnica, dal momento che, affinché io possa analizzare un nucleo atomico con l’NMR, questo debba essere soggetto ad una magnetizzazione, cioè che esso, introdotto in un campo magnetico, sia responsivo nei confronti del campo magnetico. Per questo motivo non tutti i nuclei atomici sono caratterizzabili con l’NMR ma soltanto una particolare sezione di nuclei atomici che rispecchia particolari caratteristiche. Quali sono i nuclei atomici che posso vedere con NMR? Quelli che hanno un numero dispari di protoni, un numero dispari di neutroni o entrambe le caratteristiche. Tutti questi possono ruotare attorno a sé stessi, attorno all’asse di spin, questi hanno un momento angolare nucleare diverso da zero. Questo vettore, nel momento in cui il nucleo atomico viene sottoposto ad un campo magnetico esterno, si orienta, quindi è in grado di ruotare e orientarsi sotto il campo magnetico imposto. In letteratura si trovano tabellati dei numeri quantici di spin attraverso i quali posso calcolarmi il numero di orientamenti possibili che il vettore può assumere nel momento in cui è sottoposto ad una magnetizzazione, la formula che mi permette di fare tutto questo è (n+1). Si può avere a che fare con nuclei atomici con numero quantico di spin diverso da zero, può essere intero o semi intero, oppure ci si può trovare di fronte a nuclei atomici il cui valore di I è zero, in quest’ultimo caso i nuclei atomici non possono essere identificati con NMR, questo perché il fatto di avere I = 0 implica che questi non abbiamo momento angolare nucleare, quindi quando li inserisco in un campo magnetico non vengono influenzati. Ad esempio, l’isotopo 12C ha I = 0, non si può identificare, stesso discorso vale per l’isotopo 16O. Considerando il protone 1H, il suo I vale ½, allora il vettore del momento angolare nucleare diverso da zero e può assumere due diversi orientamenti. Lo strumento è sempre lo stesso ma quando si fa l’analisi bisogna dire quale nucleo atomico vado ad analizzare. La qualità dello spettro che registrato è invece strettamente correlata ad un altro parametro riportato nella terza colonna della tabella, l’abbondanza naturale, espressa in %. Questa informa su quanto quell’isotopo è presente in natura, questo dato ha importanti implicazioni sulle qualità del segnale. Se si considera il protone 1H, questo ha abbondanza naturale del 99%, quindi ce n’è tantissimo, quindi quando si analizzerà il campione al suo interno ci saranno tanti nuclei atomici di quel tipo che andranno a contribuire alla generazione del segnale. Diversamente se considero l’isotopo 13C la sua abbondanza naturale è 1%, questo fa sì che quando si analizzano i campioni al 13C al suo interno ci sia invece una piccola quantità di isotopi e quindi il segnale che si produrrà sarà più debole. Per ovviare a questa problematica e migliorare la qualità si può agire sui seguenti fattori: - analisi più lente, con più scansioni (con carbonio anche un migliaio di scansioni, così da ottenere più spettri da mediare, contemporaneamente si ripulisce del rumore di sottofondo, infatti se i picchi sono bassi si rischia di confonderli con il rumore di sottofondo); - concentrazione del campione, fare un’analisi con 10mg vuol dire che dentro a quel campione ci saranno tot nuclei atomici di un certo tipo, ma usare 50mg di campione mi garantirà un quantitativo di nuclei atomici 5 volte maggiore. 1 Di Giacinti/Impagnatiello 18 Bionanotecnologie (Boffito) 31/03/2022 • Funzionamento Si identificano due fasi: inizialmente il campione deve essere sottoposto a magnetizzazione, dopodiché lo si fa interagire con la radiazione elettromagnetica nel campo delle onde radio. Il campione all’inizio è in uno status, in condizioni di equilibrio, i vettori dunque sono orientati in maniera completamente casuale. Nel primo step si effettua la magnetizzazione, si impone un campo magnetico dall’esterno 𝐵0, in questo i vettori del momento angolare nucleare del nucleo atomico verranno sottoposti a magnetizzazione. Nel caso in figura in cui gli orientamenti possibili siano due(C13), allora una parte dei vettori che si distribuirà parallelamente al campo e nello stesso verso (freccette azzurre, stato a bassa energia), l’altra parte invece si distribuirà in direzione opposta (freccette rosse, stato ad alta energia). In che percentuale sono queste due configurazioni? Circa al 50 e 50 ma con una leggera prevalenza delle frecce azzurre (verso concorde a 𝐵0) rispetto alle rosse. Questo è importante perché è proprio questa piccola prevalenza che permette di generare lo spettro NMR. Nel secondo step si va a colpire il campione magnetizzato con le radiazioni elettromagnetiche nel campo delle radio frequenze, queste saranno a frequenze differenti, ma solo in corrispondenza di una certa frequenza avverrà la transizione delle frecce azzurre dallo stato in cui si trovano allo status ad alta energia. In corrispondenza di quella frequenza, detta di risonanza, i nuclei atomici vanno incontro ad un fenomeno di risonanza. Quello che si fa successivamente è la registrazione del segnale di decadimento dell’induzione generata, si registra cioè il segnale che viene rilasciato dai nuclei atomici e si tolgono tutti gli effetti perturbanti come la magnetizzazione ed essi progressivamente tornano allo stato iniziale. Questo tipo di analisi negli strumenti vecchi viene fatto frequenza per frequenza, quindi, ad ogni frequenza si valutava se si inducesse la risonanza. Ciò portava ad analisi lunghissime, ad ogni frequenza si applicava la radiazione, si registrava e si vedeva se si era indotta risonanza. Con i moderni strumenti si sfrutta la tecnica della trasformata di Fourier, tramite la quale è possibile bombardare il campione con tutte le frequenze contemporaneamente e analizzarle in un unico step, sfruttando una potenza di calcolo maggiore. Si ottengono così analisi veloci ed è possibile fare molte più scansioni. Si è detto che lo strumento registra il segnale che viene rilasciato dai nuclei durante la fase di rilassamento, ovvero nel momento in cui si tolgono tutti gli elementi perturbanti e i nuclei tornano progressivamente allo stato di equilibrio, questo segnale è chiamato FID (Free Induction Decay o libero decadimento dell’induzione). Il FID è un segnale di intensità nel tempo, all’atto pratico non lo si vede direttamente, nel senso che lo strumento invia il segnale FID che registra a dei calcolatori grazie ai quali, in uscita, si ottiene lo spettro del segnale. Questo spettro avrà in ordinata l’intensità mentre in ascissa la frequenza e presenterà dei picchi in corrispondenza delle frequenze di risonanza. In accordo a ciò, quando si fa analisi NMR bisogna dire allo strumento quale nucleo atomico si sta analizzando, non si possono analizzare più nuclei contemporaneamente. Se l’NMR 2 Di Giacinti/Impagnatiello 18 Bionanotecnologie (Boffito) 31/03/2022 effettua l’analisi ad un protone, andrà ad individuare e studiare i fenomeni di risonanza a carico del protone, ma se l’analisi viene effettuata su uno specifico nucleo atomico, sempre protoni sono, quindi ci si aspetta degli spettri che abbiano sempre un solo picco; questo è derivante dal fatto che se si analizzano i protoni, tutti questi dovrebbero andare in risonanza insieme (avendo la stessa frequenza di risonanza), ma se fosse davvero così l’NMR non servirebbe a nulla. Questo perché indipendentemente dal materiale se i protoni vanno in risonanza ad una precisa frequenza ci si aspetta la medesima cosa in più campioni. In realtà non si ottengono mai spettri a picco singolo, l’NMR infatti è una tecnica che rileva informazioni anche sull’environment chimico, sull’intorno chimico dei nuclei atomici. Il fatto che il nucleo atomico abbia un intorno chimico differente, sposta la frequenza di risonanza, ne consegue che lo spettro avrà tanti picchi, questi saranno attribuibili a protoni, a C13 o a O17, cioè al tipo di nucleo atomico che si sta analizzando, ma la posizione dei picchi sarà diversa perché le frequenze di risonanza cambieranno in base allo status del nucleo atomico, cioè a quello che è l’environment chimico che lo circonda. Questo è quello che rende la tecnica altamente informativa. Se i protoni indipendentemente da come sono legati andassero in risonanza allo stesso modo si vedrebbe sempre un solo picco. Il FID registrato è molto più complesso quindi perché porta al suo interno l’info di tutti i fenomeni di risonanza avvenuti anche a frequenze differenti. Gli spettri saranno sempre intensità/frequenza ma non sono a singolo picco. Il FID reale, quello che si porta dentro le info, si chiama interferogramma. Ѐ necessario effettuare ancora un passaggio prima di ottenere lo spettro finale. I valori intensità/frequenza dello spettro graficati sono strumento dipendente, le frequenze alle quali i nuclei vanno in risonanza possono spostarsi anche in funzione delle caratteristiche dello strumento, in base al campo che si applica e alla frequenza dell’oscillatore. DI fatto lo spettro che si ottiene in un laboratorio potrebbe non essere confrontabile con lo spettro ottenuto in un altro laboratorio. Perché uno strumento diverso ha performance diverse, gli strumenti NMR esistono con caratteristiche tecniche diverse, capacità risolutive differenti. A prescindere dalla sensibilità più o meno alta, è corretto riportare i risultati che prescindano dallo strumento. Per eliminare la variabilità dello strumento gli spettri vengono riportati in intensità/chemical shift (spostamento chimico). Questo spostamento chimico (espresso per parti su milioni) è ottenuto andando ad applicare la seguente formula: 𝑆𝑝𝑜𝑠𝑡𝑎𝑚𝑒𝑛𝑡𝑜 𝑐ℎ𝑖𝑚𝑖𝑐𝑜 𝑟𝑒𝑙𝑎𝑡𝑖𝑣𝑜 (𝛿) = 𝑣𝑐𝑎𝑚𝑝𝑖𝑜𝑛𝑒 − 𝑣𝑟𝑖𝑓𝑒𝑟𝑖𝑚𝑒𝑛𝑡𝑜 ∙ 106 (𝑝𝑝𝑚) 𝑣𝑠𝑝𝑒𝑡𝑡𝑟𝑜𝑚𝑒𝑡𝑟𝑜 La frequenza dello spettrometro è una frequenza caratteristica dello strumento. Se si effettuasse un’analisi NMR protonica del cloroformio ci si aspetterebbe il segnale prodotto da questo in funzione dello strumento utilizzato, in particolare alla frequenza del suo oscillatore. Quello che si nota però è un segnale uscente a frequenze anche significativamente differenti. Passando dal dominio delle frequenze a quello degli spostamenti chimici invece si ottiene sempre lo stesso spettro, il segnale del protone cloroformio esce sempre alla stessa frequenza. 3 Di Giacinti/Impagnatiello 18 Bionanotecnologie (Boffito) 31/03/2022 Perché c’è un riferimento? Per annullare gli effetti derivanti dal fatto che i diversi nuclei atomici sentono campi magnetici diversi per effetto schermante dei loro vicini. Quando viene inserito il campione nel campo magnetico, ogni nucleo atomico sentirà un campo magnetico leggermente diverso, in base al fatto che ha attorno qualcosa che lo scherma. La presenza del riferimento permette dunque di annullare questo effetto. Questo riferimento è una molecola addizionata al campione, di cui si conosce l’uscita, è possibile così spostare lo spettro a zero, eliminando possibili variazioni del posizionamento dei picchi. Come riferimento solitamente si utilizza il TMS (tetrametilsilano). I riferimenti eliminano eventuali variazioni della posizione dei picchi, comunque molto piccoli, derivanti dalla non perfetta omogeneità del campo magnetico percepito dai differenti nuclei atomici. Molto spesso è già presente nei solventi con cui si lavano i campioni. • Valutazione dello spettro All’atto pratico gli spettri che si ottengono devono essere interpretati, tramite conoscenze pregresse, come tabelle o schemi che definiscono in quali regioni dello spettro avere i picchi. In particolare, nello spettro 1H NMR, che normalmente va da 0 a 12 ppm, ci si aspetta la comparsa di picchi di protoni legati al gruppo carbonile, lo stesso vale per altre tipologie di protoni. Va anche detto che alcune regioni possono avere la comparsa di picchi differenti attribuibili a protoni differenti. Per l’uso nostro, quindi valutare lo spettro per verificare ciò che già ci si aspetta, si 4 Di Giacinti/Impagnatiello 18 Bionanotecnologie (Boffito) 31/03/2022 conosce già la posizione di questi picchi, perché conosco la chimica del campione in esame. Nel discorso inverso, ovvero partire dallo spettro e risalire alla struttura chimica, il fatto che nelle stesse regioni si possano trovare picchi di nuclei atomici diversi, ovvero nuclei atomici che hanno la stessa natura ma environment significativamente diverso, rende difficile l’identificazione degli elementi. Per risalire alla struttura chimica bisogna fare più spettri NMR su nuclei atomici differenti e incrociare i dati registrati. Lo stesso discorso vale per C13. I picchi degli spettri si trovano in posizioni diverse per i nuclei atomici anche se della stessa natura, perché vanno in risonanza a frequenze diverse influenzati dall’environment chimico. L’environment chimico ha delle implicazioni: questo lo si nota nello spettro, sulla forma dei miei picchi. Nello spettro, infatti, si possono avere ad esempio dei singoletti (picco singolo), o dei multipletti (picchi splittati in tanti picchetti). La presenza di singoletti o multipletti va ulteriormente a definire l’environment chimico del nucleo atomico, questo infatti sente due diversi campi magnetici, quello imposto dall’esterno ma anche quelli più deboli prodotti da altri nuclei atomici della mia stessa natura che sono vicini. Il fatto di avere questo doppio tipo di magnetizzazione fa sì che questo effetto di vicinanza porti allo split dei picchi. Il numero dei picchetti che si vanno a creare per questo fenomeno è determinato dalla formula (n+1), dove n è il numero di protoni vicini. Ragionando sui protoni, perché c’è molta più molteplicità (nel C13 è più difficile), se attorno al protone non ce ne sono altri, il protone sentirà solo il campo magnetico dell’esterno e si genererà un singolo segnale. Se legato al protone si avessero dei carboni e poi degli idrogeni, il protone non sentirebbe solo il campo magnetico esterno, ma anche quello dei vicini, il segnale non sarà più un singoletto ma sarà splittato con di una quantità uguale al numero dei miei vicini. ESEMPIO: spettro isopropilmetiletere. A livello molecolare si identificano 3 diversi tipi di protone: i protoni del gruppo CH3 che non hanno altri simili (sono protoni di un CH3 legato ad un ossigeno); i protoni che sono CH, questo protone è solo nella sua natura, perché ha legato da una parte O e dall’altra due gruppi CH3; l’ultimo tipo di protone è quello degli altri CH3, questi chimicamente sono uguali perché sono legati ad un gruppo CH. Il primo gruppo di protoni (di un gruppo CH3, in rosso) non hanno dei vicini quindi si manifesteranno come singolo picco (n+1=1). Il protone del gruppo CH (in blu) ha legato a sé 2 gruppi CH3, quindi ha vicino 6 altri protoni, 3 per ogni CH3, se si applica la formula (n+1) ottengo 7, ecco che il segnale di questo protone viene splittato in 7 picchetti, in intensità è molto più bassa. I protoni di CH3 (in rosa) hanno un vicino, che è il protone del CH, quindi n+1=2, il segnale si manifesta come un doppietto. Non verrà mai richiesto di fare questi ragionamenti, basti sapere che i protoni possono sentire altri campi magnetici oltre a quello esterno e questo porta ad avere dei picchi splittati e il sotto numero in cui il picco si splitta dipende dal numero dei vicini. Osservazioni: gli spettri NMR protonici sono relativamente puliti e hanno una linea di base che ha poco rumore, inoltre essendo il protone un elemento con elevata abbondanza naturale si avrà una 5 Di Giacinti/Impagnatiello 18 Bionanotecnologie (Boffito) 31/03/2022 buona intensità. Il carbonio da segnali molto rumorosi, lo splitting si vede ma non tutto, il segnale già è basso, se c’è anche molto rumore risulta di difficile interpretazione. Andando a riassumere quando si procede con l’NMR gli step da seguire sono: 1- Introdurre il campione all’interno di un campo magnetico per indurre il processo di magnetizzazione; 2- Far interagire il campione magnetizzato con la radiazione elettromagnetica del campo delle radiofrequenze e andare a indurre la perturbazione (cioè in corrispondenza di certe componenti di frequenza i miei nuclei atomici andranno in risonanza); 3- Registrare il segnale FID; 4- Elaborare matematicamente il segnale FID al computer, applicando la trasformata di Fourier, ottenere in uscita lo spettro NMR in funzione della frequenza o dei chemical shift; • Strumentazione Gli strumenti moderni, per applicare il campo magnetico, sono forniti di magneti superconduttori, motivo per cui l’ingombro dello strumento è importante. Infatti, per lavorare, questi strumenti hanno bisogno di temperature molto basse, necessitano di una camicia di raffreddamento, che viene fatta solitamente tramite azoto ed elio liquido. Nel magnete si inserisce il campione, solitamente allo stato liquido (in soluzione), anche se esistono NMR che fanno analisi allo stato solido, in quel caso si utilizzeranno polveri. Quando il campione è allo stato liquido bisogna solubilizzare il materiale in un solvente, i solventi che si utilizzano sono deuterati, in una percentuale dl 99%. Cosa significa questo? Se si fa un NMR protonico, in cloroformio, questo ha un protone dunque può subire magnetizzazione, ma se si utilizza il cloroformio deuterato, se si fa NMR del protone H1, con il solvente deuterato quel protone non da segnale. Ad esempio, se si hanno 10mg di materiale solubilizzato in 1ml di solvente, se questo non fosse deuterato, il solvente produrrebbe dei picchi che andrebbero ad abbattere il mio segnale utile, perché si ha solvente in eccesso rispetto al campione. I solventi deuterati si comprano già così. A livello di strumento il magnete ha all’interno il probe, elemento in cui si va ad inserire il campione, si hanno poi altre bobine che vengono chiamate di shimming, sono presenti perché bisogna fare in modo che il campo magnetico esterno sia più uniforme possibile, queste bobine servono per eliminare eventuali gradienti. Altro elemento essenziale è lo spinneret, durante tutta l’analisi il campione viene posto in rotazione attorno al proprio asse. Questo è fondamentale perché garantisce che tutto il campione senta il campo magnetico, evitando le disuniformità. Si effettua la magnetizzazione, il segnale FID viene registrato e buttato dentro la macchina di calcolo e in uscita si ottiene lo spettro. 6 Di Giacinti/Impagnatiello 18 Bionanotecnologie (Boffito) 31/03/2022 • Applicazioni Per cosa si può usare l’NMR? Per fare analisi sulla stereochimica dei polimeri, per identificare la presenza di certi gruppi funzionali di catena, o gli end groups, risalire alla composizione dei polimeri fino ai singoli monomeri, nei polimeri a blocchi è possibile andare a identificare la presenza di tutti i blocchi effettivamente presenti in catena, è possibile fare studi di reattività dei monomeri e arrivare anche a fare valutazioni di pesi molecolari, in quest’ultimo caso i polimeri che si analizzano devono essere semplici. Spettroscopia Infrarossa Tecnica molto più semplice rispetto all’NMR, meno informativa però, la spettroscopia ad infrarossa, è anch’essa una tecnica di assorbimento, che va ad analizzare le interazioni che intercorrono tra il campione e radiazioni elettromagnetiche nel campo dell’infrarosso. In questo campo dell’infrarosso è possibile identificare diverse regioni nello spettro a differenti lunghezze d’onda, vicino (13000- 4000 𝑐𝑚−1), medio (4000-6000 𝑐𝑚−1) e lontano (600-10 𝑐𝑚−1). Normalmente si lavora nel campo dell’infrarosso medio e leggermente nell’infrarosso lontano (range 4000-400 𝑐𝑚−1). In cosa consiste la tecnica? Si colpisce il campione con una radiazione nel campo dell’infrarosso, la radiazione ha al proprio interno diverse componenti spettrali, la radiazione è policromatica, con all’interno tante frequenze, ci saranno particolari frequenze con cui il materiale in esame è capace di interagire, come anche altre con cui non interagirà. Ne consegue che il raggio colpisce il campione, se non interagisce esce uguale a sé stesso. Se il raggio colpisce il campione e interagisce ci sarà assorbimento e il raggio uscirà dal campione con intensità inferiore rispetto a quella con cui era entrato. Il tipo di transizione per effetto delle interazioni sono transizioni vibrazionali, cioè i nuclei colpiti iniziano a vibrare, inoltre i nuclei vibrano in maniera differente. Gli spettri che si ottengono in uscita sono sempre spettri con una linea di base e dei picchi, simile quindi all’NMR anche se la natura e geometria dei picchi è completamente diversa. I dati vengono graficati in due modi: in ordinata la trasmittanza e in ascissa il numero d’onda; in ordinata l’assorbanza; 7 Di Giacinti/Impagnatiello 18 Bionanotecnologie (Boffito) 31/03/2022 Quando lo spettro è in trasmittanza si grafica in termini percentuali ciò che viene trasmesso, questo vuol dire che: se si ha la radiazione ad una certa frequenza che colpisce il campione, se non interagiscono tra loro, la radiazione esce in maniera uguale, in termini di trasmittanza ci sarà il 100%. Quando c’è interazione la radiazione arriva, colpisce il campione e avviene l’interazione, a quel punto una parte dell’energia di radiazione viene assorbita e in uscita si avrà una radiazione con intensità minore rispetto a quella in ingresso, di fatto la trasmissione è minore. Questo si traduce nello spettro con la comparsa di picchi rivolti verso il basso, perché la trasmittanza diminuisce. Se ci fossero in grafici in assorbanza, questo sarebbe sempre lo stesso ma ribaltato perché in assorbanza si grafica ciò che viene assorbito (quando non viene assorbito nulla l’assorbanza è zero), perciò quando c’è interazione c’è assorbimento e compare un picco che non è rivolto verso il basso ma verso l’alto e sarà tanto più alto quanto più c’è stato assorbimento. Posso avere modi di vibrare diversi, se ne possono identificare di due tipi: - stretching (o stiramento) che sono vibrazioni in cui si ha uno stiramento ritmico lungo l’asse di legame, questo può essere simmetrico o asimmetrico; - bending, ovvero di piegamento, queste vibrazioni prevedono delle variazioni dell’angolo di legame o in alternativa dei movimenti di un gruppo di atomi rispetto agli altri. Mentre lo stretching può esser simmetrico o asimmetrico, nel caso del bending la situazione è più complessa, nel senso che si possono avere situazioni di bending in diverse modalità: scissoring, rocking, wagging, twisting; a seconda di come vibrano i miei atomi. Che cosa è informativo nello spettro infrarosso? - La posizione del picco; - L’intensità; - La forma; Al punto che nelle tabelle di riferimento, oltre ad identificare il tipo di vibrazione ci sono anche informazioni relativamente al fatto che quel segnale sia forte, medio o debole, in base all’intensità del picco, e che abbia una forma stretta o larga. Il modo di interpretare spettri infrarossi è analogo a quello visto con NMR. Normalmente si registra lo spettro e si confronta con dati presenti in tabelle o schemi che indicano; i diversi tipi di legami; in corrispondenza di quali numeri d’onda vanno in vibrazione; il tipo di vibrazione vanno ad avere. Come visto con il protone e con il carbonio, si possono trovare in diverse regioni i picchi d’onda a carico di legami differenti, ma anche all’interno della stessa regione posso avere 8 Di Giacinti/Impagnatiello 18 Bionanotecnologie (Boffito) 31/03/2022 vibrazioni di legami differenti tra loro, motivo per cui se l’obiettivo è andare la caratterizzazione non ci sono problemi perché si conosce a priori la struttura chimica del campione, ma se l’obiettivo è ipotizzare una struttura chimica questa da sola non basta. C’è una regione particolare poi dell’infrarosso che va da 1500 a 500 𝑐𝑚−1 che riporta la fingerprint, ovvero la regione di impronta digitale dei materiali. Si tratta di una regione particolare univoca per ogni materiale, ma nel suo essere l’impronta è estremamente complessa da interpretare. L’impronta digitale ha un’altissima ricchezza in termini di componenti spettrali e picchi. È utile se si vuole verificare che ad esempio il materiale A sia uguale al materiale B, si possono sovrapporre gli spettri ma interpretarli singolarmente è più complicato perché si tratta di una regione molto complessa perché ricca di molti picchi, prodotti da legami anche diversi tra loro, si avranno molte sovrapposizioni. • Funzionamento Anche qui c’è stata un’evoluzione negli strumenti che ha permesso di averne di più performanti. Quelli di vecchia generazione (Spettrometro IR a dispersione), erano strumenti che andavano a fare analisi con tempi più lunghi, perché partivano da una sorgente da cui si creava una luce policromatica, questa tramite specchi veniva inviata ad un riferimento e al campione. La radiazione attraversava il riferimento e il campione, interagiva con essi, dopodiché le due radiazioni venivano nuovamente, dopo i fenomeni di interazione, combinate tra loro. Quello che si faceva era sottrarre il segnale di riferimento al segnale del campione, e tutto questo segnale risultante veniva dato in pasto ad un monocromatore. Questo elemento andava a rallentare l’analisi perché tutto il segnale 9 Di Giacinti/Impagnatiello 18 Bionanotecnologie (Boffito) 31/03/2022 policromatico andava a suddividerlo nelle varie componenti spettrali, poi le singole componenti venivano inviate al rilevatore. Quindi per poter ottenere lo spettro si partiva da una radiazione policromatica ma l’analisi dei dati veniva fatta frequenza dopo frequenza. Gli strumenti moderni (Spettrometro IR in trasformata di Fourier), sono strumenti che non hanno più il monocromatore, sfruttano la FFT per poter partire da un segnale, sempre un interferogramma, che porta dentro di sé tutte le info dell’interazioni che sono avvenute alle diverse lunghezze d’onda del segnale e in un unico passaggio le traduce in uno spettro. Il sistema della macchina a livello meccanico è cambiato, si utilizzano sempre ottiche che permettono di far convergere la radiazione verso il campione, tutto questo sistema di ottiche che si utilizza viene chiamato interferometro di Michelson. Basta ricordare che c’è stata un’evoluzione che ha portato alla possibilità di eliminare il monocromatore. Il passaggio all’interferometro di Michelson ha portato ad un significativo risparmio in termini di tempo, una maggiore sensibilità, oggigiorno è meccanicamente più semplice quindi più facile da gestire e si evitano fenomeni di riscaldamento del campione perché l’analisi è più corta. Anche in questo caso è necessario il riferimento: quello che lo spettrometro registra è un segnale che si porta dentro info sul campione ma anche sull’ambiente che circonda il campione, ad esempio aria, si porta dietro anche eventuali derive prodotte dallo strumento stesso. Il background o riferimento serve per sottrarre al segnale registrato tutto ciò che non definisce il campione. Negli strumenti di vecchia generazione si parte da una luce policromatica che viene splittata in due, una parte va al riferimento, una parte va al campione, poi dopo l’interazione i due spettri si riuniscono e viene sottratto il riferimento al segnale del campione. Negli strumenti moderni, con questo interferometro di Michelson, non si analizza tutto in un passaggio solo, ma prima si registra il background, come fosse un’analisi a vuoto, dopo si va a registrare il campione (campione + backgrund), il software in automatico sottrarrà il background ottenendo uno spettro che porta dei picchi prodotti solo dal campione. 10 Di Giacinti/Impagnatiello 18 Bionanotecnologie (Boffito) 31/03/2022 Come sono i campioni sottoposti all’infrarosso? Esistono due modalità: - le analisi in trasmissione; - le analisi in riflettanza totale attenuata (ATR); Lo strumento è lo stesso, cambia semplicemente il modulo che si monta sullo strumento. La mia radiazione nel campo dell’infrarosso attraversa completamente lo spessore del campione, l’analisi è in massa, in bulk, perché il raggio attraversa completamente lo spessore del campione, per fare ciò lo strumento presenta un porta campione che permette di posizionare il campione in verticale, così da avere la radiazione che si genere ad una estremità, attraversa il campione ed esce dall’altra parte. I campioni per essere analizzati devono essere opportunamente preparati per poter alloggiare nel porta campione, in particolare devono esser nella forma di pastiglie. Le pastiglie vengono preparate partendo da polveri del materiale da analizzare che vengono mescolate in un mortaio con polveri di bromuro di potassio (KBr), si mescolano e si pressano sottovuoto tramite pressa idraulica e in uscita si ottengono delle pastiglie che vengono poi montate sullo strumento. Perché si utilizza il KBr? Perché questo è trasparente all’infrarosso, la sua presenza non influenza lo spettro che si andrà a registrare, perché la radiazione infrarossa non interagisce in alcun modo con essa, dall’altra parte è necessario utilizzarlo perché non si può pensare di fare analisi su pastiglie a base del solo materiale in analisi, altrimenti avrei una quantità di materiale tale per cui tutta la radiazione incidente andrebbe incontro ad assorbimento, quindi in uscita non si vedrebbe nulla, non si avrebbe uno spettro con i picchi. Il KBr si usa per questi due motivi, perché trasparente e perché senza di lui non potrei fare analisi in trasmittanza. Il limite di questo approccio è che è un’analisi a perdere, perché dopo averli analizzati si buttano via. In alternativa, le analisi si possono fare in ATR. L’analisi non è più in massa, ma prettamente superficiale, la radiazione va ad interagire con gli strati più superficiali del campione e questa profondità di indagine va da 0.5 a 5 micron. Questo tipo di approccio si presta anche per poter valutare le modifiche superficiali dei biomateriali, anche se non è l’ottimo, perché se si penetra poco la probabilità che ci siano componenti del rivestimento è alta, ma se si penetra di più il materiale poi prevale sul rivestimento, quindi sicuramente non è la tecnica di elezione per verificare le modifiche superficiali. Come funzione? C’è un cristallo ad alto indice di rifrazione che viene posto in contatto con il campione, la radiazione infrarossa entra nel 11 Di Giacinti/Impagnatiello 18 Bionanotecnologie (Boffito) 31/03/2022 cristallo e rimbalza all’interno interagendo con il campione in diversi punti, dopodiché uscirà dal cristallo e andrà verso il rilevatore e il detector misurerà quanto assorbimento c’è stato. Perché c’è il rimbalzo? Affinché ci sia assorbanza tale da vederla, si ha la necessità che l’interazione raggio campione avvenga in più punti, prima il problema non c’era perché attraversando tutto il campione si ha interazione a sufficienza, tanto che se ne rischia fin troppa. Qui se invece di fare il rimbalzo avessi un solo punto di contatto, avrei fenomeni di assorbimento troppo bassi e non vedrei nulla. In uscita lo spettro ha la stessa forma ma il campione non è a perdere. L’unica cosa da fare è porre il campione sopra il cristallo e solitamente gli strumenti hanno una sorta di manina utilizzata per premere il campione sul cristallo per massimizzare il contatto fra essi e aumentare la qualità del segnale registrato, ci sono degli indicatori di forza presenti che permettono di premere in maniera uniforme il campione senza rischiare la sua rottura. Come tecnica di per sé è semplice e veloce che però si porta dietro dei vantaggi e svantaggi: Svantaggi Non è una tecnica quantitativa, ma qualitativa o al più semiquantitativa, quest’ultima nei casi in cui ci siano differenze significative sulla presenza maggiore in un campione rispetto che in un altro, ma non si arriverà a dire es: “ho tot gruppi per grammo di materiale”. Vantaggi Fornisce per ciascun composto esaminato una complessa e caratteristica impronta digitale. Avendo a disposizione uno standard del composto, un controllo computerizzato dello strumento IR permette la perfetta sovrapposizione delle impronte digitali. Non si possono definire o individuare impurezze, ma solo grossolane quindi in quantità significative (cosa possibile con l’NMR). Nel caso della trasmissione è necessaria la preparazione del campione, quindi, l’operatore che lo prepara va ad influenzare la qualità del campione (es. la finezza delle polveri del campione va ad inficiare la sua qualità). Ho sia in trasmissione ma anche in ATR una manipolazione del campione da parte di chi fa l’analisi (con l’NMR dal computer si può dire cosa fare una volta messo il campione nel cristallo), qui bisogna ad esempio premere il campione sul cristallo, ma questo varia da operatore ad operatore. Questo va a supporto alla teoria del fatto che la tecnica non è quantitativa. 12 Furlan/Domè 19 Bionanotecnologie (Boffito) 31/03/2022 Spettroscopia infrarossa: Chemical imaging Esistono strumenti per spettroscopia infrarossa che non fanno un’analisi di tipo puntuale, cioè di una piccola regione di campione (come quella vista precedentemente). Infatti, nella trasmissione la radiazione attraversa il campione mentre nella ATR la radiazione rimbalza, ma la regione che si va ad investigare è una regione molto piccola, dell’ordine di qualche micron. In questi setup gli strumenti per spettroscopia infrarossa possono essere utilizzati invece per analizzare regioni più grosse di campioni e fare il cosiddetto chemical imaging. Ciò che si ottiene facendo il chemical imaging è una vera e propria mappatura cioè si identifica una regione del campione che si vuole analizzare, la si quadretta e su ogni quadrettino si registra lo spettro infrarosso. Si ha quindi non più lo spettro di un punto come nel setup sperimentale precedente ma di un insieme di punti e si possono usare le informazioni degli spettri che si ottengono da tutti i punti per costruire delle mappe che normalmente sono colorate. Di conseguenza si usa un approccio di questo tipo per fare delle valutazioni di uniformità dei campioni, di uniformità di rivestimenti perché dalla mappatura a colori si può ad esempio vedere se il segnale che si ritrova ad un certo numero d’onda è uniformemente distribuito all’interno della regione analizzata. 1 Furlan/Domè 19 Bionanotecnologie (Boffito) 31/03/2022 Il chemical imaging è un upgrade rispetto alla spettroscopia infrarossa tradizionale perché permette di analizzare una serie di punti vicini tra loro andando a costruire una mappa di spettri infrarossi. Usando i software si possono ottenere mappature colorate come ad esempio quella nell’immagine dove la mappatura colorata va a graficare il rapporto tra l’intensità del picco H2 e l’intensità del picco H1 e quindi si può vedere se c’è uniformità nel campione o meno. La si può anche utilizzare nel caso si abbia a che fare con materiali compositi, per cercare la distribuzione della fase dispersa all’interno della matrice o se si ha un materiale che si sa possedere delle impurezze significative che l’infrarosso è in grado di detectare, con il chemical imaging si può pensare di fare una mappatura delle impurezze sul campione. TECNICHE CROMATOGRAFICHE Quando si implementa una tecnica cromatografica si sottopone il campione ad un processo di separazione attraverso l’utilizzo di una colonna cromatografica. Nei setup moderni gli strumenti di cromatografia hanno una struttura come quella riportata nell’immagine dove la colonna cromatografica è l’elemento all’interno del quale avviene la separazione delle componenti presenti all’interno del campione. Nel caso della caratterizzazione dei polimeri la separazione si basa sul volume idrodinamico occupato dalle catene polimeriche. A livello della colonna si ha un flusso di una fase mobile, responsabile del trasporto del campione lungo la colonna a livello della quale, come è stato detto in precedenza, viene separato. Nella struttura è presente una pompa che preleva il campione dal recipiente e garantisce la costanza del flusso della fase mobile lungo tutto il percorso dello strumento cromatografico. 2 Furlan/Domè 19 Bionanotecnologie (Boffito) 31/03/2022 Nelle fasi mobili i flussi normalmente sono dell’ordine di 0.4 – 0.5 mL al minuto. La fase mobile come costituzione nel caso dei polimeri sintetici normalmente è una fase mobile di natura organica: un solvente organico. Se invece si fa analisi cromatografica di polimeri naturali, le fasi mobili sono a base acquosa cioè la fase mobile deve essere qualcosa all’interno della quale il campione è solubile perché nel momento in cui il campione è in soluzione le sue catene polimeriche sono libere di fluttuare e assumono un certo volume idrodinamico che è l’elemento rispetto al quale si va a fare la separazione. Fasi mobili che si utilizzano tipicamente con polimeri sintetici: dimetil-formammide o tetraidrofurano o cloroformio. Ad un certo punto, prima della colonna si ha l’iniettore che è quell’elemento attraverso il quale si inietta il campione che è già stato solubilizzato precedentemente nella fase mobile, dentro il fiume. Il fiume scorre e ad un certo punto viene aggiunto il campione che verrà trasportato dal fiume verso la colonna dove verrà separato. In uscita dalla colonna le catene sono state separate secondo il principio di funzionamento della colonna e nell’ottica di calcolare e stimare dei pesi molecolari, la separazione è una separazione in base ai volumi idrodinamici e le catene polimeriche messe in ordine andranno verso il detector. Il detector fa una misurazione che permette di detectare la presenza delle catene e il segnale che viene registrato andrà ad essere sfruttato per poter definire la distribuzione dei pesi molecolari e dalla distribuzione si andranno a calcolare i pesi molecolari medi numerale, ponderale e l’indice di polidispersità. In fondo si ha uno scarico, lo strumento infatti non è a ricircolo quindi il flusso ossia la fase mobile viene buttata via e quando si analizzano i campioni conterrà anche il materiale che si è utilizzato, è ossia una analisi a perdere ma il materiale che si perde è pochissimo ossia circa un paio di milligrammi (quantità non significative in termini di perdita). Il segnale registrato dal detector va al software che lo rielabora. Ciò che verrà fatto ad esercitazione è fermarsi al detector ossia si prenderanno i dati forniti dal detector e verranno analizzati da noi; questo viene fatto spesso anche in laboratorio così che sia l’operatore a scegliere i picchi da considerare e se la distribuzione dei pesi molecolari è una distribuzione multimodale (ossia nella quale vengono identificati più componenti polimeriche diverse) con le operazioni di deconvoluzione possono essere separate, cosa che non tutti i software degli strumenti permettono di fare. Cromatografia ad esclusione molecolare (SEC) Idealmente, quello che si fa è far scorrere il campione lungo una colonna cromatografica che funziona come un setaccio molecolare e in uscita le catene sono poste in ordine di volume idrodinamico. Il volume idrodinamico è strettamente correlato al peso molecolare quindi molto spesso, anche se in maniera un po’ imprecisa, si dice che la separazione è fatta in funzione del peso molecolare. La colonna presenta al proprio interno un impaccamento ovvero dei granuli impacchettati tra loro e che sono a loro volta porosi. Le colonne che si 3 Furlan/Domè 19 Bionanotecnologie (Boffito) 31/03/2022 utilizzano sono inerti cioè colonne che non interagiscono con il campione e che quindi non determinano una trattenuta del campione in colonna; al punto che effettivamente l’unico parametro che determina la separazione è la dimensione dei pori dei granuli dell’impaccamento. Idealmente, ci si deve immaginare che entrando in colonna le catene polimeriche si trovano di fronte ad un labirinto e inizieranno a percorrere questo labirinto con percorsi diversi a seconda del loro volume idrodinamico perché ci saranno delle vie del labirinto più larghe dove potranno entrare tutte le catene anche quelle che occupano un volume idrodinamico più grosso ma ci saranno anche delle vie più piccole, con porosità più piccola dove ciò che ha volume idrodinamico più grande non riesce ad entrare. Ne consegue quindi che l’ordine di uscita dalla colonna è da ciò che è più grande a ciò che è più piccolo perché ciò che è più grande ed occupa un volume idrodinamico più grande (e quindi ha anche un peso molecolare più grande), non riesce a percorrere tutti i percorsi tortuosi che si hanno all’interno della colonna perché ci sono delle porosità piccole dove questi non riescono ad entrare e quindi vanno più velocemente verso l’uscita. Quindi, l’ordine è dal più grande al più piccolo e la separazione è una separazione fisica fatta in funzione del volume idrodinamico che le catene polimeriche occupano all’interno della fase mobile o eluente. L’analogo della SEC per le proteine è la cromatografia per permeazione su gel, dove la colonna è la stessa, ma esistono per le proteine molte altre cromatografie (a scambio ionico o per affinità dove si va a funzionalizzare la colonna nel primo caso e nell’altro si usano colonne che espongono cariche). Nell’ottica di calcolare pesi molecolari la colonna è una colonna inerte che non interagisce in alcun modo con le catene all’interno, è un labirinto poroso dove ciò che può passare perché più piccolo passa seguendo sentieri più tortuosi e impiegandoci un tempo maggiore mentre ciò che non può passare perché più grosso, passa per altre vie più facili ed esce prima. Ciò che influenza i risultati che si ottengono è la natura della fase mobile perché le catene polimeriche occupano volumi idrodinamici diversi anche in funzione di ciò in cui sono solubilizzati. Motivo per il quale quando si parla di risultati di questo tipo è essenziale accompagnarli con l’indicazione del protocollo sperimentale che è stato utilizzato per poterli definire. La tecnica è utilissima ma si porta dietro un discreto errore, infatti si parla di errori nella definizione dei pesi molecolari dell’ordine fino al 10%-15%. Detectors Dopo che le catene vengono separate e poste in ordine, devono essere misurate ossia detectate, quindi, in uscita dalla colonna si va verso un detector. Nel caso della SEC i detector che possono essere utilizzati sono di diverso tipo: - Detectors di concentrazione: tra questi si ricorda il detector a indice di rifrazione che è il più ampiamente utilizzato e che funziona andando, man mano che il campione scorre, a valutare se ci sono delle variazioni nell’indice di rifrazione tra la cella in cui scorre il campione e la cella di riferimento. Laddove ci sono differenze nell’indice si rifrazione, si verificherà un picco, indice del fatto che ci sono delle catene che stanno scorrendo mentre laddove non ci sono catene all’interno della cella di analisi la differenza di indice di rifrazione è zero e quindi si ha un segnale piatto. 4 Furlan/Domè - 19 Bionanotecnologie (Boffito) 31/03/2022 Altri detectors di concentrazione sono i detectors a UV e a fotodiodi (PDA/DAD), questi sono più limitati nel loro utilizzo perché per poterli utilizzare si ha bisogno che le catene che sono state messe in ordine siano sensibili a interazioni con la luce ultravioletta. Se le catene non hanno elementi che interagiscono con la luce ultravioletta i detectors di questi due tipi non vedranno mai nulla, quindi dal punto di vista pratico sono un po’ più limitati in termini di versatilità di applicazione; Detectors di viscosità; Detectors di light scattering. I detectors possono essere utilizzati singolarmente o in combinazione. Quelli che vengono usati più frequentemente singolarmente sono i detectors di concentrazione mentre gli altri solitamente sono accoppiati con altre tipologie di detector. Con un detector di concentrazione si riescono ad avere dati a sufficienza per stimare un peso molecolare (e in effetti ci verranno dati dei dati provenienti da un detector di concentrazione a indice di rifrazione). Calibrazione Se si vuole migliorare la qualità del risultato ottenuto i detector si accoppiano ottenendo ad esempio un detector di concentrazione associato a un detector di viscosità o si può avere il triplo detector combinando un detector di concentrazione con uno di viscosità e uno di light scattering. Ciò che cambia è il tipo di risultato che si riesce ad ottenere e in effetti quando si ha a che fare con un detector di light scattering il peso molecolare che si va a definire è il cosiddetto peso molecolare assoluto mentre quando si ha a che fare con gli altri tipi di detector (concentrazione o concentrazione associata a viscosità) il peso molecolare stimato è un peso molecolare relativo. La differenza sta nel fatto che usando un detector di concentrazione da solo o associato al detector di viscosità, il peso molecolare calcolato è relativo cioè è definito sulla base di una curva di calibrazione che viene utilizzata come riferimento per calcolare il peso molecolare. Quando invece si ha il detector di light scattering, il peso molecolare definito è assoluto ovvero che prescinde da delle calibrazioni cioè non è un peso molecolare calcolato usando una calibrazione come riferimento, come punto di partenza ma è il peso molecolare vero del materiale analizzato. In effetti, quando si ha a che fare con il detector di light scattering non si va a costruire una curva di calibrazione ma si utilizza soltanto uno standard, un riferimento, che permette di riassettare i risultati ottenuti rispetto alle caratteristiche dello strumento utilizzato. Quindi, con il detector di concentrazione e di viscosità si deve costruire una curva di calibrazione cioè si deve mettere in relazione ciò che esce dal detector con dei pesi molecolari noti mentre con il detector di light scattering non si ha bisogno di curva di calibrazione ma si ha semplicemente uno standard che viene periodicamente analizzato per determinare la costante strumentale. Il settaggio più informativo è quello della detezione tripla perché si ha la possibilità di avere il light scattering e quindi calcolare il peso molecolare assoluto ma avendo anche gli altri detector si può anche trovare il relativo, infatti, si ha il detector di viscosità che misura la viscosità del campione che sta scorrendo e volendo si possono avere informazioni sulla concentrazione delle diverse specie e delle catene a diversa lunghezza presenti all’interno del campione. La tripla detezione è il setup più informativo ma ovviamente anche il più costoso. 5 Furlan/Domè 19 Bionanotecnologie (Boffito) 31/03/2022 Il light scattering potrebbe lavorare da solo ma di fatto se si fa un investimento sul light scattering vuol dire che si hanno anche gli altri mentre il detector a concentrazione è quello più basico, più economico e più facile da gestire. La concentrazione con viscosità è utile perché permette di calibrarsi in maniera da tale da rendere i risultati ottenuti da strumenti diversi e con calibrazioni diverse, confrontabili tra loro. Nella concentrazione pura si ha un risultato di peso molecolare che è funzione di ciò che viene usato per costruire la calibrazione, infatti se si calcola il peso molecolare utilizzando una calibrazione fatta con polietilenossido si vedono ad esempio 30000 Dalton mentre se vengono utilizzati gli stessi dati con una calibrazione in polimetilmetalcrilato, lo stesso polimero lo si vede a 50000 Dalto. Il risultato letto è in funzione anche di come si calibra e cosa si usa per calibrare, ciò perché polimeri di natura differente quando si trovano nella fase mobile occupano volumi idrodinamici diversi. Quello a concentrazione è quindi il più economico ma ne conseguono dei limiti e la necessità di specificare la calibrazione con cui è stato calcolato il peso molecolare; la combinazione di concentrazione e viscosità riesce ad eliminare questa problematica (è quindi un upgrade mentre il migliore è il light scattering). Quando si parla di pesi molecolari relativi ossia calcolati rispetto ad una curva di calibrazione, a seconda del setup di detector che si hanno negli strumenti si può fare una calibrazione convenzionale o una calibrazione universale. La calibrazione convenzionale è quella che porta a vedere uno stesso polimero con pesi molecolari diversi a seconda della calibrazione utilizzata ed è la calibrazione che si costruisce usando i detectors di concentrazione. La calibrazione universale è quella che si costruisce combinando concentrazione con viscosità. Calibrazione convenzionale Per poter stimare il peso molecolare si ottengono in uscita dal detector due informazioni: - - L’intensità del segnale: per esempio nel caso di detector a indice di rifrazione si ha un’informazione sulla variazione dell’indice di rifrazione ossia l’intensità del RID dove RID sta per detector a indice di rifrazione. Volume o tempo di eluizione: sono parametri correlati tra loro, infatti per esempio, se il flusso è 0.5 mL al minuto in automatico si può trasformare il tempo in un volume. Il tempo o volume di eluizione definisce il volume di fase mobile necessaria affinché una determinata lunghezza di catena (ossia un determinato volume idrodinamico) esca dalla colonna e arrivi al detector. Facendo riferimento all’immagine, si vede che poco prima di 15 mL esce un picco e quindi la lunghezza di catena che si ha in corrispondenza del picco esce ad un volume di eluizione di poco meno di 15 mL. Analogamente si può parlare di tempo di eluizione, dicendo quanto tempo è necessario affinché una certa lunghezza di catena (cioè un determinato 6 Furlan/Domè 19 Bionanotecnologie (Boffito) 31/03/2022 volume idrodinamico) esca dalla colonna e arrivi al detector. Per poter trasformare i dati di intensità versus volume/tempo di eluizione in una distribuzione di peso molecolare, è necessario fare riferimento ad una calibrazione. La calibrazione riporta in ordinata un logaritmo in base 10 del peso molecolare e più nello specifico si utilizza come peso molecolare quello Mp che è il peso molecolare in corrispondenza del picco mentre in ascissa si ha il volume o il tempo di eluizione. Per costruirla si comprano degli standard (gli standard si comprano e sono già definiti dal venditore come standard) che è un polimero di peso molecolare noto, con indice di polidispersità tendente a 1 cioè costituito nella quasi totalità da catene lunghe uguali. Si comprano una serie di standard che hanno pesi molecolari diversi e li si fa scorrere dentro lo strumento così da ottenere un elugramma (graficato in blu nell’immagine) cioè si ha un segnale che sta a 0 quando non escono catene mentre si generano dei picchi laddove si ha fuoriuscita di catena (perché il detector di concentrazione apprezza la presenza di catene che stanno attraversando il detector). Gli standard hanno un peso molecolare risaputo e quindi è possibile dire il picco osservato a che standard corrisponde e quindi si riesce a dire ogni picco osservato a che peso molecolare corrisponde. Si arriva quindi a dire che per esempio, il peso molecolare corrispondente ad 1,000,000 di Dalton esce per un volume di eluizione pari a 14 e qualcosa mL (poco meno di 15 mL) o un peso molecolare di 200,000 Dalton esce per un volume di eluizione di 16 mL e il peso molecolare di 10,000 Dalton esce per un volume di eluizione di 19 mL. Si può osservare che l’ordine di uscita è in accordo con quanto detto precedentemente infatti esce prima chi occupa più spazio. Usando gli standard si riescono a definire dei punti che possono essere inseriti in un piano cartesiano: logaritmo di peso molecolare versus tempo o volume di eluizione. Si può osservare infatti l’immagine dove sono presi molti standard e posti in un piano cartesiano con le coordinate definite: il peso molecolare Mp dello standard (ossia il peso molecolare in corrispondenza del picco che nel caso degli standard è pari al peso molecolare di quasi tutte le catene perché gli standard hanno delle gaussiane molto strette) e il volume e tempo di eluizione. Lo strumento non viene calibrato tutte le volte che viene utilizzato ma viene calibrato periodicamente, sono infatti strumenti che hanno colonne molto delicate e quindi le colonne devono sempre essere sotto flusso, bagnate dalla fase mobile e se la colonna si secca deve essere buttata via. Lo strumento essendo sempre sotto flusso e acceso implica che non ci sia la necessità di dover calibrare ogni volta che viene utilizzato perché il suo status di partenza è sempre lo stesso. Quando ad esempio ci sono le vacanze di natale, lo strumento viene spento e al ritorno dalle vacanze viene ricalibrato, quindi ogni volta che si spegne lo strumento deve essere ricalibrato o comunque se rimane acceso, ogni tanto deve essere ricalibrato per verificare che la calibrazione nuova sia coerente con quella vecchia. 7 Furlan/Domè 19 Bionanotecnologie (Boffito) 31/03/2022 Ciò che verrà fatto nelle prossime lezioni ed esercitazioni sarà andare a costruire la calibrazione con gli standard: partendo dai valori di peso molecolare Mp e dai volumi/tempi di eluizione si graficheranno i dati andando ad inserire la linea di tendenza, chiedendo a excel di mostrare l’equazione che sarà il punto di partenza per caratterizzare il polimero. Infatti, non si sa il polimero che peso molecolare abbia e quindi si fa scorrere il polimero, si osserva la comparsa di un segnale (normalmente non sono segnali così belli come quelli in immagine precedente in blu, infatti le gaussiane sono più ampie essendo polimeri di sintesi ed essendo di sintesi a volte sono sporche) e questo segnale viene registrato formando un elugramma (nell’immagine si ha l’intensità del segnale in funzione del volume di eluizione). Successivamente, ogni punto della gaussiana corrispondente ad una certa tipologia di catena che ha una certa dimensione può essere elaborato dalla curva di calibrazione e usando la sua equazione e sapendo ogni punto della gaussiana a che volume di eluizione corrisponde, si riesce a definire il logaritmo del peso molecolare e di conseguenza il peso molecolare di quella specifica catena. Il ragionamento non si fa più sul punto di picco ma su tutti i punti che vengono registrati dal detector. Dati i pesi molecolari, si può calcolare la distribuzione del peso molecolare e dalla distribuzione, applicando le formule viste con il professor Ciardelli, si possono calcolare i pesi molecolari medi e normalmente quelli calcolati sono l’MN ossia il peso molecolare medio numerale, l’MW che è il ponderale e il loro rapporto che è l’indice di polidispersità che da un’idea di quanto la distribuzione sia ampia cioè di quanto il polimero sia polidisperso. Il limite di questa calibrazione risiede nel fatto che le curva di calibrazione che vengono costruite sono significantemente variabili in funzione del materiale che costituisce gli standard perché la calibrazione convenzionale assume che il campione analizzato abbia la stessa densità degli standard utilizzati per costruire la curva di calibrazione. Quindi, laddove si hanno degli standard molto simili al campione in termini di densità allora la curva di calibrazione da risultati buoni mentre laddove la natura del campione è molto diversa dalla natura degli standard, viene stimato un peso molecolare ma che ha dietro un errore maggiore. Ritornando all’esempio precedente del 30000/50000, in realtà il risultato più coerente è quello dei 30000 Dalton perché è stato ottenuto con una calibrazione costruita con polietilenglicole e il polimero analizzato è un polimero a base polietilenglicole mentre non è assolutamente a base di polimetilmetalcrilato. 8 Furlan/Domè 19 Bionanotecnologie (Boffito) 31/03/2022 Quindi, anche nello scegliere gli standard che si utilizzano per fare le calibrazioni convenzionali, l’ottimo sarebbe avere a disposizione tante calibrazioni e usare quella opportuna in base alla natura del campione analizzato così da ottenere un risultato più corretto. Al tempo stesso, l’utilizzo di queste calibrazioni comporta dei limiti nella confrontabilità motivo per il quale è essenziale che ogni dato fornito sia accompagnato dall’indicazione della calibrazione utilizzata per calcolarlo. Altrimenti caratterizzando un polimero viene osservato un certo peso molecolare e lo stesso polimero caratterizzato da un'altra parte vede un peso molecolare diverso, non perché il peso molecolare è diverso ma perché sono state utilizzate due calibrazioni diverse e per effetto di questa dipendenza del materiale utilizzato per fare la calibrazione si ottengono inevitabilmente risultati diversi al punto di vedere pesi molecolari che sono il doppio rispetto ai pesi molecolari osservati con un altro tipo di calibrazione. Viene riportato di seguito un esempio pratico di calibrazioni fatte con polistirene e polietilene utilizzando la stessa fase mobile. Si osserva che sono curve abbastanza distanti tra loro e quindi inevitabilmente si osserveranno risultati molto diversi utilizzando l’una piuttosto che l’altra. Calibrazione universale Per ovviare a questo tipo di problematica, si può far riferimento alla calibrazione universale. Per poter fare una calibrazione universale è però necessario avere un accoppiamento di detectors e in particolare avere un detector di concentrazione, sia esso UV o a indice di rifrazione (IR), accoppiato a un detector di viscosità. Anche in questo caso si devono utilizzare degli standard però il modo in cui viene costruita la curva di calibrazione è differente perché mentre prima venivano messi in relazione il peso molecolare Mp (di picco o più probabile) con il volume/tempo di eluizione; in questo caso, il peso molecolare viene coinvolto successivamente perché la curva di calibrazione mette in relazione la viscosità con il tempo o il volume di eluizione. La viscosità è un qualcosa che si va praticamente a misurare perché si ha il detector di viscosità. In sostanza, si ha in ordinata il logaritmo di una viscosità e in ascissa un volume di eluizione. Questo tipo di calibrazione porta comunque a stimare dei pesi molecolari perché vengono utilizzate le relazioni esistenti tra la viscosità intrinseca e la concentrazione, infatti, la viscosità intrinseca viene calcolata come il rapporto tra la viscosità relativa e la concentrazione e dalla viscosità intrinseca si risale ad un peso molecolare. 9 Furlan/Domè 19 Bionanotecnologie (Boffito) 31/03/2022 Quindi la differenza rispetto alla calibrazione convenzionale è che la curva di calibrazione non utilizza i pesi molecolari degli standard ma utilizza ciò che effettivamente si va a misurare con lo strumento analizzato perché si ha a disposizione un detector di viscosità. Ne consegue, come si può osservare nell’immagine, che indipendentemente dal polimero con cui sono fatti gli standard, la curva di calibrazione è sempre la stessa e quindi ciò va completamente ad eliminare i problemi derivanti dall’utilizzo di curve di calibrazione diverse in luoghi o laboratori differenti. Domanda studente: “Come mai nella convenzione universale si utilizzano metodi quali la regressione lineare, mentre nel caso precedente viene fatta una semplice interpolazione dei punti?” Ciò dipende dal software utilizzato e dall’approccio adottato per la costruzione della curva di calibrazione. Lo strumento utilizzato in laboratorio al Politecnico chiede all’operatore di identificare nell’elugramma la posizione in corrispondenza della quale esce il picco e all’operatore a che peso molecolare corrisponde quel tempo/volume di eluizione. Successivamente, lo strumento fa osservare dove sono posizionati i punti nel piano e l’operatore svolge un’operazione di interpolazione avendo la possibilità di scegliere tra polinomi di gradi differenti. Spesso si riesce ad arrivare ad interpolare con delle rette, dipende dal tipo di standard e dall’intervallo di pesi molecolari su cui ci si calibra, infatti gli standard vengono comprati e hanno pesi molecolari diversi, quindi vengono scelti standard che permettono di calibrare all’interno di un intervallo di pesi molecolari di interesse dove ci si aspetta che compaiano i segnali dei materiali che vengono caratterizzati e che siano concordi con il tipo di colonna utilizzata. Le colonne in base all’impaccamento che hanno sono in grado di discriminare un certo intervallo di pesi molecolari. Ad esempio una colonna può permettere di discriminare pesi molecolari tra 1000 e 100000 Dalton mentre un’altra può andare da 100000 Dalton a 500000 Dalton. Quindi, gli standard si comprano per fare una calibrazione coerente sulla base di risultati attesi e sul tipo di colonna posseduta. Molto spesso si può arrivare ad avere un andamento lineare, infatti i dati che verranno utilizzati durante l’esercitazione sono dati veri e si possono interpolare mediante una retta. 10 Furlan/Domè 19 Bionanotecnologie (Boffito) 31/03/2022 Nei grafici viene mostrato il confronto tra la calibrazione convenzionale e quella universale. Usando gli stessi standard è stata costruita la calibrazione convenzionale (immagine a sinistra) dove si osserva che l’utilizzo del polistirene o del polietilene porta a delle curve di calibrazione differenti tra di loro e nel caso della SEC piccole variazioni nel volume o tempo di eluizione possono corrispondere a non trascurabili variazioni di pesi molecolari. Usando gli standard con una calibrazione universale (immagine a destra) si osserva che le due curve di calibrazione sono sostanzialmente sovrapposte tranne nella regione terminale che è la regione corrispondente ai pesi molecolari più piccoli e ciò è attribuibile al fatto che il polietilene quando ha dei pesi molecolari molto piccoli subisce delle variazioni conformazionali per cui la curva di calibrazione (anche nel caso di quella universale) ha una leggera deriva ma è nulla rispetto alle differenze che si hanno nella convenzionale. 11 Sacco/Romita Lezione 20 Bionanotecnologie (Boffito) 08/04/2022 Spettroscopia ad effetto fotoelettrico (XPS) È stato affrontato l’argomento riguardante le tecniche di spettroscopia e nello specifico ci si è soffermati sulle tecniche di spettroscopia infrarossa e spettroscopia in risonanza magnetica nucleare. Un’ultima tecnica di spettroscopia è la spettroscopia ad effetto fotoelettrico (o XPS): serve per avere informazioni sulla composizione superficiale del campione in oggetto di analisi. La profondità di interazione della radiazione che interagisce col campione, in questo caso, è inferiore ai 10 nm e, in uscita, si ottengono informazioni sulla composizione chimica del materiale analizzato. È una tecnica NON DISISTRUTTIVA, poiché non danneggia il campione e si basa sul cosiddetto effetto fotoelettrico. In termini generali, con effetto fotoelettrico ci si riferisce al fenomeno in cui un elettrone viene strappato via da un materiale se irraggiato da una radiazione con energia sufficiente da indurre questo spostamento. Nel caso specifico dell’XPS, l’effetto fotoelettrico è indotto dall’interazione di una radiazione nel campo dei raggi X monocromatica (energia compresa tra 0.1 e 5 keV, in modo più frequente ≤ 2 keV). Queste radiazioni interagiscono con il materiale causando la rimozione di elettroni, detti elettroni di core. La radiazione impiegata ha quindi un’energia tale da strappare gli elettroni che si trovano negli orbitali più interni, cioè più vicini al nucleo (dove sono più saldamente legati). La radiazione incide sul campione e penetra molto poco all’interno di esso, poiché la profondità di analisi è inferiore ai 10 nm, e per effetto dell’interazione vengono strappati gli elettroni di core. L’idea è quella di analizzare gli elettroni di core strappati, per risalire alla composizione della superficie del materiale in oggetto di analisi. Come tecnica, si presta a un’analisi elementare qualitativa, cioè individua quali sono gli elementi presenti sulla superficie: utile per le valutazioni sulla purezza della superficie del campione o per lo studio di un eventuale fenomeno di ossidazione superficiale del campione. D’altra parte è anche una tecnica quantitativa, in quanto l’intensità dei picchi, che compaiono sullo spettro, è direttamente proporzionale alla quantità di uno specifico elemento chimico presente sulla superficie del campione. Questo implica la possibilità di effettuare un’analisi quantitativa della composizione superficiale del campione e anche di valutare la stechiometria della superficie. Si tratta di una tecnica altamente sensibile, che riesce a ottenere un picco sullo spettro anche quando un elemento è presente in quantità molto piccole (sensibilità: 0.1% in concentrazione di peso; riesce a detettare elementi anche in parti per milione), e si presta a valutazioni qualitative e quantitative, come la spettroscopia in risonanza magnetica nucleare. I campioni, che possono essere alloggiati all’interno dello strumento, hanno delle dimensioni massime di 𝟏 × 𝟏 × 𝟏 𝐜𝐦, devono essere solidi o in alternativa polveri. Nel caso in cui si analizzino polveri, tali polveri devono essere molto compattate tra di loro, perché l’analisi viene condotta in condizioni di alto vuoto. Si inserisce il campione all’interno dello strumento e la camera in cui avviene l’analisi, viene sottoposta a vuoto molto spinto. Se il campione è a base di polveri non ben compattate, la pompa meccanica, che crea il vuoto, aspira anche il campione. I campioni inoltre devono essere planari quanto più possibile, poiché si fa fatica ad analizzare campioni che presentano curvature. Lo strumento che si utilizza non è particolarmente ingombrante, ma, come nel caso dell’MRN, necessita di una grossa potenza di calcolo, per ottenere uno spettro analizzabile. Si tratta di uno strumento estremamente costoso che necessità di molta manutenzione ordinaria, motivo per cui non si trova comunemente in qualsiasi laboratorio di caratterizzazione, al contrario di quello per spettroscopia infrarossa (strumento da banco semplice da gestire). 1 Sacco/Romita Lezione 20 Bionanotecnologie (Boffito) 08/04/2022 1 Caratteristiche fondamentali: - Tecnica di indagine composizionale di superficie (< 10 nm) Fondata sull’effetto fotoelettrico Tecnica non distruttiva Nell’effetto fotoelettrico un elettrone viene “strappato” dal materiale di appartenenza se irraggiato con una radiazione di energia sufficiente Una radiazione X monocromatica (0.1-5 keV) possiede abbastanza energia da rimuovere un elettrone di core dal materiale. A cosa serve: - Analisi elementare (stato di purezza, ossidazione) Analisi quantitativa (stechiometria, composizione) (sensibilità 0.1% in concentrazione di peso) Utile in molti ambiti: nanomateriali, adesione, corrosione, funzionalizzazione superficiale Dimensione campione massima 1x1x1 cm (sia solidi che polveri), difficilmente si riesce a fare analisi su campioni curvi. Come funziona l’analisi? Bisogna produrre un fascio di raggi X attraverso un acceleratore che viene in seguito collimato verso il campione da analizzare. Il raggio collimato colpisce la superfice del campione e penetra per una certa profondità (ordine di qualche nanometro). Nel momento in cui la radiazione colpisce il campione, avviene l’interazione campione-radiazione luminosa. Per il tipo di radiazione impiegata, gli elettroni di core vengono strappati. Gli elettroni di core strappati devono attraversare pochi nanometri per uscire dal materiale, cioè compiere un percorso per essere liberati all’interno della camera di analisi, dove potranno essere poi analizzati. Questo implica la necessità di una camera di analisi che permetta di detettare facilmente gli elettroni liberati, per cui è necessario lavorare in condizioni di alto vuoto. La condizione di vuoto è necessaria, in quanto gli elettroni perdono già energia durante il percorso di uscita dal materiale, e se, una volta usciti, urtano con le particelle presenti nell’aria, potrebbero perdere ancora più energia impedendone l’analisi. In seguito, gli elettroni vengono emessi e bisogna distinguerli in base alle loro caratteristiche, analizzarli e identificarli. Per questo gli elettroni passano attraverso un selezionatore di energia che li separa in base alla loro energia di legame. Ne consegue che, in uscita dall’analisi, si ottenga uno spettro in cui in ordinata è riportata un’intensità, mentre in ascissa è riportata l’energia di legame o l’energia cinetica. 1 Contenuto slide. In questo elaborato le note indicano l’inserimento dell’intero contenuto delle slide per una questione di completezza. 2 Sacco/Romita Lezione 20 Bionanotecnologie (Boffito) 08/04/2022 In questo spettro compaiono dei picchi e ogni picco è associato a degli elettroni di core liberati da elementi chimici differenti. In altre parole, in base all’energia di legame dei diversi valori di core che vengono detettati, si può identificare l’elemento chimico che li ha liberati, e dare un nome a ciascun picco presente sullo spettro. Da ciò ne deriva che si possono avere indicazioni su quali sono gli elementi presenti sulla superficie del materiale in oggetto di analisi. È possibile identificare tutti gli elementi chimici con questa tecnica? No, perché la condizione affinché possano essere identificati è data dalla presenza degli elettroni di core negli elementi in oggetto di indagine. In particolare, l’idrogeno non possiede elettroni di core. In sostanza, con la tecnica XPS, si possono distinguere tutti gli elementi chimici ad eccezione di uno, l’idrogeno: non presenta picchi nello spettro perché non possiede elettroni di core da strappare per effetto delle interazioni. 2 1) Un fascio di raggi X (energia < 2KeV) viene prodotto a livello dell’acceleratore e collimato sul campione. 2) Gli elettroni strappati dal loro livello di appartenenza attraversano lo strato superficiale del materiale e vengono riemessi nella camera di lavoro. Per evitare perdite energetiche degli elettroni dovute a potenziali urti con altre particelle, le analisi vengono condotte in condizioni di alto vuoto (pressione dell’ordine di 10-6 Pa). 3) Gli elettroni emessi vengono rilevati passando da un selezionatore di energie ed attraverso un fotomoltiplicatore che amplifica il numero di elettroni ricevuti ad una certa energia e converte questo segnale in una tensione. Uno spettro di fotoelettroni viene registrato contando gli elettroni espulsi in un intervallo di energie cinetiche degli elettroni. I picchi compaiono nello spettro da atomi che emettono elettroni di una particolare energia caratteristica. Le energie e le intensità dei picchi fotoelettronici consentono l'identificazione e la quantificazione di tutti gli elementi della superficie (tranne l'idrogeno). Nei composti, l’idrogeno non ha elettroni di core quindi non può produrre segnale XPS. Come già detto, è possibile effettuare un’analisi elementare della composizione della superficie, cioè, analizzando l’energia di legame associata ad ogni picco, si può identificare il picco e quindi l’elemento chimico da cui sono stati strappati gli elettroni che hanno generato il segnale. È possibile anche effettuare un’analisi quantitativa, perché l’intensità del picco è proporzionale a quanto un dato elemento è presente sulla superficie di un campione. La posizione, cioè l’energia di legame associata a un picco, che identifica l’elemento chimico, si sposta leggermente in base allo stato di legame dell’elemento chimico. È quindi possibile notare le variazioni dell’energia di legame rispetto a come l’elemento chimico è legato all’interno del 2 3 Sacco/Romita Lezione 20 Bionanotecnologie (Boffito) 08/04/2022 campione analizzato. Quest’ultimo è un aspetto molto importante di questa tecnica, in quanto la rende sfruttabile per realizzare modifiche superficiali di un materiale, trattandosi per l’appunto di una tecnica per l’analisi superficiale. D’altra parte, le variazioni di energia di legame, al variare dello stato di legame degli elementi chimici, fa sì che si possa monitorare come varia lo stato di legame per gli elementi di superficie e si possano distinguere superfici funzionalizzate rispetto a quelle non funzionalizzate: è importante per modifiche superficiali che implicano la formazione di nuovi legami covalenti fra un substrato e una molecola. Per esempio, legando covalentemente una proteina a un substrato tramite l’XPS, si può constatare se il nuovo legame chimico si sia formato, perché si può monitorare il cambiamento dell’energia di legame associata agli elementi chimici superficiali, grazie alle piccole variazioni dello stato di legame. Questa analisi è possibile grazie a un lavoro di deconvoluzione dei picchi: considerato un dato picco, lo si separa in varie componenti, poiché l’energia di legame si sposta leggermente in base allo stato di legame, e la distribuzione delle componenti fornisce indicazioni sulla formazione del legame che ci si aspetta. Nell’ambito delle modifiche superficiali, come già detto, la spettroscopia infrarossa in modalità ATR (riflettanza totale attenuata) può essere utilizzata ma non è prestante come la tecnica XPS. Nel caso in cui si debba analizzare appropriatamente una superficie, la tecnica XPS è la più indicata poiché ha una maggiore profondità di analisi che permette un risultato nell’ordine dei nanometri delle superficie di un dato materiale. La modalità ATR, invece, permette anche un’analisi superficiale, la cui profondità è però dell’ordine dei decimi o di qualche micron. In sostanza. per caratterizzare al meglio una superficie bisogna utilizzare la tecnica XPS. 3 2 Nello spettro è possibile identificare 3 regioni differenti: 1. Nella prima regione, in corrispondenza di energie di legame molto basse, si trovano dei picchi prodotti dagli elettroni di valenza. Questo avviene perché se 1 la radiazione emessa è in grado di strappare gli elettroni di core, ovviamente strapperà anche gli elettroni di valenza, in quanto sono meno legati al nucleo. Inevitabilmente nello spettro si presentano dei segnali per energie di legame molto basse prodotti dagli elettroni di valenza. Si noti che all’interno dello spettro i picchi non sono molto intensi e si confondono quasi con il rumore di fondo, per cui questa regione di spettro non è informativa in termini di composizione della superficie di un materiale. 2. Nella regione centrale, per valori di energie di legame più alti, i picchi presenti sono effettivamente quelli prodotti dagli elettroni di core. Rispetto ai precedenti della prima regione, questi picchi si presentano molto più aguzzi, intensi e definiti, per cui è questa la regione dell’XPS, dove si effettuano le valutazioni precedentemente discusse. 3. La terza regione presenta dei picchi con energie di legame ancora più alte, chiamati picchi di emissione Auger. Questi picchi sono formati dall’emissione di elettroni come conseguenza di fenomeni di rilassamento: un elettrone strappato, lascia una lacuna (un vuoto) e può accadere che un altro elettrone si sposti dal suo orbitale per riempire tale lacuna, liberando una parte di energia. In sostanza, l’energia liberata dall’elettrone che si sposta (che si rilassa), viene utilizzata da un elettrone poco legato per strapparsi (uscire), dando il via a una catena di spostamento di elettroni: un elettrone viene strappato ed esce lasciando un vuoto (lacuna); un altro elettrone entra nel vuoto e libera energia che viene utilizzata da un altro elettrone ancora per essere strappato. L’elettrone strappato da origine ai picchi relativi a energie di legame 4 Sacco/Romita Lezione 20 Bionanotecnologie (Boffito) 08/04/2022 molto alte, come frutto di una cascata di eventi che si può originare nel momento in cui viene strappato un elettrone di core. Dopo queste considerazioni, si intuisce che la regione di interesse dello spettro è quella centrale, dove i picchi sono prodotti dagli elettroni di core strappati dall’interazione tra la superficie del materiale e la radiazione. 3 Le energie di legame (o in alternativa le energie cinetiche) di ogni tipologia di elettrone sono identificate per ogni elemento. Il posizionamento di un picco è però influenzato anche dall’intorno chimico dell’atomo in esame, cioè dai legami che l’atomo forma con gli atomi vicini à gli spettri XPS quindi possono fornire informazioni sulla struttura chimica dei materiali. L’intensità di segnale è proporzionale al numero di atomi nel materiale chi si trova in quel dato intorno chimico. • • Analisi qualitativa: identificazione degli elementi presenti. Analisi quantitativa: quanto ciascun elemento è presente nel campione. - Picchi di emissione da livelli di valenza (basse energie di legame) à derivano dai livelli energetici più esterni. Picchi di emissione da livelli di core (alte energie di legame) à derivano dagli shell più interni, generano picchi pronunciati e ben distinguibili. Picchi di emissione Auger (localizzati nella regione ad alta energia di legame) à picchi prodotti da elettroni emessi dal materiale in seguito a fenomeni di rilassamento (un elettrone fotoemesso lascia una lacuna in cui può cadere un altro elettrone. In questo processo di rilassamento, l’elettrone perde energia che può essere assorbita da un altro elettrone meno legato che viene emesso e di conseguenza rilevato). - Aspetti critici della tecnica XPS Un aspetto critico di questa tecnica, già menzionato, è dato dal fatto che l’analisi deve essere effettuata in condizioni di alto vuoto affinché gli elettroni, una volta usciti dal materiale, non perdano ulteriore energia per effetto di urti con particelle presenti nell’aria. Un altro elemento di criticità, associato all’energia degli elettroni, si presenta nel momento in cui gli elettroni, dopo essere stati strappati, devono attraversare una certa distanza, nell’ordine dei nanometri, dentro il materiale per poter uscire. Nonostante sia una distanza molto piccola, comporta comunque perdite energetiche per gli elettroni. Per minimizzare queste perdite, bisogna ridurre la profondità di analisi: meno l’analisi è profonda e minore è la distanza che gli elettroni percorrono prima di uscire dal materiale. Un altro modo per evitare perdite energetiche, consiste nell’analizzare il campione in posizione inclinata invece che orizzontale, poiché, in un campione inclinato, la distanza che gli elettroni devono percorrere per raggiungere il detector è ridotta. Durante l’analisi, è quindi necessario mantenere la camera in alto vuoto e i campioni inclinati per ridurre la distanza che gli elettroni strappati devono percorrere nel campione prima di fuoriuscire. 3 5 Sacco/Romita Lezione 20 Bionanotecnologie (Boffito) 08/04/2022 I principali vantaggi di questa tecnica altamente sensibile, che detecta anche elementi presenti in quantità dell’ordine delle parti per milione, è che risulta versatile, perché si presta a valutazioni diverse per gli elementi chimici presenti sulla superficie del campione: • Valutazione qualtitativa elementare; • Valutazione qualitativa; • Valutazione dello stato di legame. Inoltre, non è una tecnica distruttiva e permette di avere informazioni sulla composizione chimica della superficie del campione. Il fatto che l’analisi sia superficiale può essere un vantaggio o uno svantaggio a seconda dei casi. Se si intende caratterizzare la superficie, come nel caso di modifica superficiale, ovviamente è vantaggioso utilizzare l’XPS, perché è una tecnica che effettivamente analizza le superfici. Se l’obbiettivo è analizzare le proprietà del materiale in termini di bulk, come massa, allora questa tecnica non è appropriata. I vantaggi e gli svantaggi, quindi, dipendono dai punti di vista e da quello che si vuole ottenere. Sicuramente è svantaggioso lavorare in condizioni di alto vuoto con uno strumento molto delicato che richiede parecchia manutenzione, infatti ci sono dei tecnici dedicati proprio a questo tipo di strumento, come nel caso del MRN. 4 CRITICITÀ: gli elettroni fotoemessi devono attraversare il materiale sovrastante per poter uscire dal campione ed essere rivelati. Durante questo percorso, infatti sono avvenire urti che portano gli elettroni emessi a perdere energia, con il rischio di ridurre significativamente la possibilità di rivelarli à lo spettro che viene misurato è fortemente dipendente dalla profondità di campionamento. Per ridurre la profondità di campionamento al minimo e ottenere sensibilità superficiale il campione viene inclinato rispetto alla direzione di raccolta dei fotoelettroni. VANTAGGI SVANTAGGI Elevata sensibilità (ppm) Solo indagini superficiali Versatilità Richiede sistemi ad alto vuoto Non distruttiva Richiede molta manutenzione Identificazione dello stato chimico del campione 4 6 Sacco/Romita Lezione 20 Bionanotecnologie (Boffito) 08/04/2022 Caratterizzazione delle proprietà termiche 5 DEFINIZIONE: Con il termine analisi termica o termoanalisi si indicano una famiglia di tecniche di caratterizzazione che misurano variazioni nelle proprietà del campione in funzione della temperatura (riscaldamento o raffreddamento). In altri termini, la termoanalisi rappresenta un gruppo di tecniche nelle quali si monitora una proprietà del campione in funzione della temperatura o del tempo, sottoponendo il campione in atmosfera inerte o reattiva a una programmata di temperatura. Riscaldamento Fusione Ossidazione Decomposizione Espansione Fusione Profilo di combustione Temperatura decomposizione Modulo Cristallinità Stabilizzanti Contenuto Rammollimento Cinetiche Purezza È importate trattare l’aspetto che riguarda la caratterizzazione termica dei materiali. Cosa significa caratterizzare le proprietà termiche dei materiali? Significa investigare come cambiano status e caratteristiche di un materiale in funzione della temperatura o in funzione del tempo a temperatura costante. A seconda dell’obiettivo della caratterizzazione, cioè il target dell’investigazione da effettuare, si utilizzano tecniche differenti. • Ad esempio, se si intendono studiare le variazioni di modulo e le proprietà meccaniche di materiali temperatura-dipendenti o studiare fenomeni di espansione dei materiali al variare 5 7 Sacco/Romita Lezione 20 Bionanotecnologie (Boffito) 08/04/2022 della temperatura, allora la tecnica da utilizzare è la DMT, cioè l’analisi termodinamico meccanica, che permette di correlare le proprietà termiche con le proprietà meccaniche: - valuta come cambiano le proprietà meccaniche al variare della temperatura; - studia i fenomeni di espansione o strizione dei materiali al variare della temperatura; - valuta temperature di transizione vetrosa, perché la DMTA è l’alternativa alla calorimetria a scansione differenziale (DSC) per valutare le temperature di transizione vetrosa. • Se l’obiettivo è valutare come cambia lo status di un certo materiale al variare della temperatura in termini di cristallinità e fusioni, allora la tecnica di riferimento è la calorimetria a scansione differenziale (DSC), che nasce come tecnica per studiare le transizioni termiche che avvengono all’interno dei materiali. Con questa tecnica si possono conoscere le temperature di fusione, di cristallizzazione, di transizione vetrosa e percentuali di cristallinità. • Se l’obiettivo è quello di caratterizzare un certo materiale in termini di stabilità termica, allora la tecnica a cui bisogna riferirsi è la TGA, ovvero l’analisi termogravimetrica, che nasce come tecnica per studiare la degradazione termica di materiali polimerici. In questo caso si studia la cinetica con cui avviene la degradazione termica di un materiale o, in alternativa, nell’analisi isoterma (temperatura costante), studia la stabilità termica di un dato materiale, che consiste nella valutazione della degradazione del materiale nel tempo a parità di temperatura. Calorimetria a Scansione Differenziale (DSC) La calorimetria a scansione differenziale è una tecnica molto semplice che monitora la differenza di quantità di calore assorbito, o rilasciato, dal campione rispetto ad un riferimento, quando entrambi vengono sottoposti a processi termici controllati, ovvero riscaldamenti o raffreddamenti o mantenimento di una temperatura costante. Questa tecnica si attua in una fornace che contiene delle termocoppie. Su una delle due termocoppie è presente un riferimento, sull’altra termocoppia invece si pone un campione. A questo punto si monitora la quantità di calore da fornire a entrambe le termocoppie per mantenerle alla stessa temperatura. Se non avviene alcun processo di transizione termica, il flusso di calore è uguale sia per il riferimento sia per il campione, perché per mantenerli alla stessa temperatura viene fornita la stessa quantità di calore a entrambi. Nel momento in cui avviene una transizione termica nel campione, si verifica uno sbilanciamento della quantità di calore che bisogna fornire per tenere campione e riferimento alla stessa temperatura. Ne consegue che, a livello di termogramma, compaiano punti di flesso, cioè transizioni vetrose oppure transizioni di picchi endotermici o esotermici, che corrispondono a fenomeni di fusione o cristallizzazione. Cosa sono il campione ed il riferimento? Ad esercitazione, sono stati fatti girare i crogioli. I crogioli costituiscono i porta-campioni della DSC, cioè cappellini di metallo (alluminio, Al) al cui interno viene inserito il campione in una quantità variabile tra i 5 e i 10 mg circa. Il campione sarà il crogiolo con il materiale chiuso all’interno. Il riferimento è, invece, un crogiolo vuoto. In tal modo, l’unica differenza che si verifica tra riferimento e campione è il fatto che da una parte c’è il polimero e dall’altra no. Tutte le variazioni del flusso di calore che lo strumento misura, sono prodotte solo ed esclusivamente dal fatto che all’interno del polimero stia avvenendo qualche trasformazione, che si traduce in comparsa di flessi piuttosto che di picchi. 8 Sacco/Romita Lezione 20 Bionanotecnologie (Boffito) 08/04/2022 6 Con il termine calorimetria differenziale a scansione si indica una tecnica in cui viene misurata la differenza di quantità di energia (calore) assorbita o rilasciata da un campione rispetto a un riferimento durante un riscaldamento o raffreddamento controllato del campione, o in isoterma. Viene quindi tracciato un grafico dove il flusso di calore (espresso in milliwatt) è riportato in funzione della temperatura del campione, che misurata in maniera precisa durante tutto il processo. Le transizioni di fase che il campione subisce determinano dei picchi nel termogramma, la cui area corrisponde all’entalpia del fenomeno in gioco. Trattandosi di una variazione rispetto a un riferimento, si possono adottare due convenzioni opposte nella direzione in cui i picchi vengono rappresentati: qui è stata adottata la convenzione exo-endo per cui i picchi esotermici corrispondono a una variazione positiva rispetto alla linea di base e i picchi endotermici a una variazione negativa. Analisi TermoGravimetrica (TGA) La TGA è una tecnica più semplice rispetto alla DSC perché non è altro che una micro-bilancia. L’obiettivo è monitorare le variazioni di massa del campione, quando quest’ultimo viene sottoposto a variazioni di temperatura, oppure, in alternativa, monitorare la variazione della massa del campione nel tempo a temperatura costante. Dal punto di vista della struttura, lo strumento si presenta come in figura a destra. Si tratta di una fornace che permette di mantenere una temperatura costante o comunque che garantisce che il campione venga sottoposto a un programma termico specifico. Lo strumento consta, inoltre, di un bilancino che normalmente presenta un aghetto a cui si appende il campione. La bilancia monitora la massa del campione al variare della temperatura o al variare del tempo. 6 9 Sacco/Romita Lezione 20 Bionanotecnologie (Boffito) 08/04/2022 I campioni vengono alloggiati in secchiellini appesi all’aghetto e si utilizzano dei porta-campioni di natura ceramica, perché devono risultare inerti alle alte temperature che vengono raggiunte durante l’analisi. Cosa si ottiene in uscita dalla TGA? Si ottengono dei grafici che presentano in ordinata la massa, cioè il peso espresso come percentuale, e in ascissa la temperatura, oppure il tempo nel caso in cui l’analisi viene effettuata a temperatura costante. Dato che si tratta del monitoraggio di campioni di massa è essenziale che il campione sia stato pesato perfettamente: quindi il peso iniziale è relativo al 100%. Nell’analisi al variare della temperatura, gli andamenti sono simili a quelli riportati in figura in basso: ci sono punti di flesso che compaiono dove avvengono i processi di degradazione. Temperatura di massima velocità di degradazione (𝑇!!"# ) Analizzando questo grafico, si nota che la massa, intorno ai 100 °C, si riduce subito di circa il 7%. Una riduzione di massa, intorno ai 100 °C, è attribuibile all’evaporazione dell’acqua. Intorno ai 350 °C, la massa decade, fino ad arrivare nell’intorno dello 0% a 500 °C: questo indica che il polimero si è completamente degradato e si presenta come una cenere nera all’interno del secchiellino. Questo processo di degradazione può avvenire in un unico step, presentando un unico flesso, oppure può avvenire in più step, presentando più punti di flesso, a seconda della natura del materiale. Ad esempio, si verificano più step di degradazione nell’analisi di polimeri multiblocco, perché ogni blocco presente in catena si degrada a temperature differenti. Oltre al grafico, si analizza anche la derivata del termogramma TGA, perché nella derivata sono presenti tanti picchi quanti sono gli step degradativi. Inoltre, il punto di massimo dei picchi indica la temperatura in cui è massima la velocità di degradazione. Nel caso specifico del grafico, ci sono due step degradativi: 1. uno nell’intorno di 100 °C, che in realtà non si riferisce alla degradazione del polimero, ma all’evaporazione dell’umidità che conteneva; 2. uno tra i 350 e i 500 °C, che presenta il massimo della velocitàdi degradazione nel punto di massimo del picco, localizzato a 450 °C. Oltre al termogramma TGA, si analizza la derivata del termogramma per capire in modo chiaro in quanti step è avvenuta la degradazione. 10 Sacco/Romita Lezione 20 Bionanotecnologie (Boffito) 08/04/2022 7 L’ analisi termogravimetrica (TGA) misura i cambiamenti di peso di un materiale in funzione della temperatura e/o del tempo in un ambiente ad atmosfera controllata. Il risultato dell’esperimento è un termogramma che riporta in ascissa la temperatura (o il tempo) e in ordinata la variazione di massa, come valore assoluto o percentuale. Il risultato dell’analisi è un grafico detto termogramma o curva TG, ove spesso è riportata anche la curva in derivata o curva DTG che consente di evidenziare meglio le variazioni di peso del campione. Caso di Studio Il caso di studio trattato è relativo ad un’attività di laboratorio in cui vengono utilizzate queste tecniche non solo per ricerca di base, cioè per caratterizzare materiali così come sono, ma anche per un’analisi ottica applicativa. 8 OBIETTIVO: caratterizzare un materiale (poli(estere uretano) a base di PCL, 1,4-butandiisocianato ed estere etilico della lisina) dal punto di vista delle proprietà termiche in vista di un suo processamento in forma di matrici porose tramite tecnica di deposizione da fuso. Termogrammi DSC del campione di PU. Prima scansione di riscaldamento: riscaldamento da 20 °C a 200 °C a 10 °C min−1 e isoterma a 200 °C per 3 min; scansione di raffreddamento: raffreddamento da 200 °C a −60 °C a 10 °C min−1 e isoterma a −60 °C per 3 min; seconda scansione di riscaldamento: riscaldamento da −60 °C a 200 °C a 10 C min−1. Curve TGA e DTGA di PU. L'analisi è stata effettuata sotto aria nell'intervallo di temperatura 50-800 °C a riscaldamento velocità di 10 °C min−1. In questo caso, la DSC e la TGA vengono adottate come tecniche per studiare le proprietà termiche di un materiale e valutare la possibilità di processarlo allo stato fuso, cioè tramite le tecniche di prototipazione rapida da fuso. Innanzitutto, è stata applicata la DSC per individuare le temperature di fusione del materiale e per avere idea della temperatura necessaria per poterlo processare. Dopodiché, con la TGA, è stata studiata la degradazione termica di questo materiale. 7 8 11 Sacco/Romita Lezione 20 Bionanotecnologie (Boffito) 08/04/2022 In questo caso, la derivata della TGA evidenzia che ci sono 3 step degradativi: effettivamente si tratta di poliuretani, quindi sono presenti 3 blocchi diversi che si possono degradare in condizioni diverse. Un altro elemento importante è stato effettuare la TGA in isoterma, cioè monitorare la variazione di massa del campione alla temperatura di processing nel tempo. Questo avviene perché, dall’analisi precedente, si nota che il materiale comincia a degradare a circa 245 °C. Percentuale di peso in funzione del tempo durante analisi TGA isotermica a 165 C, per 1 h, sott'aria. 9 Dopo aver mantenuto il campione a 165 °C per 1 ora, è stata osservata una perdita di peso di solo circa l'1%, indicando stabilità termica. Non sono state osservate variazioni significative in termini di peso molecolare del PU e indice di polidispersione (𝑀! = 69000 Da, 𝐷 = 1,96) dopo questo trattamento termico. Il polimero può essere lavorato a temperature fino a 165 °C. Cosa succede se il materiale viene posto per lungo tempo a una temperatura inferiore ai 245 °C? Il materiale a 245 °C sicuramente degrada, mentre a 165 °C degrada o non degrada? La TGA in isoterma fornisce questo tipo di informazione: effettivamente il caso di studio conferma che il materiale regge fino ad un’ora alla temperatura di 165 °C. Dopo un’ora di mantenimento, però, il materiale comincia a degradare motivo per cui viene adattato il processo di stampa per ottenere le strutture in figura in basso a destra. Il processo di stampa si effettua in modo tale che il polimero non rimanga più di un ora a quella temperatura, poiché dopo un’ora il materiale che viene stampato risulta degradato. (a) Micrografia al SEM di uno scaffold in PU ottenuto mediante estrusione allo stato fuso AM; (b) maggiore dettaglio di ingrandimento della disposizione trabecolare. Il processo di stampa evidenzia come le matrici inizialmente risultino trasparenti. Man mano che la stampa procede, col passare del tempo, queste diventano sempre più giallastre, poiché il polimero degrada termicamente. 9 12 Sacco/Romita Lezione 20 Bionanotecnologie (Boffito) 08/04/2022 Surface functionalization of polyurethane scaffolds mimicking the myocardial microenvironment to support cardiac primitive cells. PlosOne 2018. https://doi.org/10.1098/rsfs.2013.0045 13 Sacco/Romita Lezione 20 Bionanotecnologie (Boffito) 08/04/2022 SEM micrographs of PU-based scaffolds cultured with human CPCs for 7 (on the left) and 14 days (on the right): (A, B) PU, (C, D) PU-G, (E, F) PU-LN1. Scale bar: 100 μm. (G) Proliferation, (H) apoptosis and (I) gene expression of CPCs on PU scaffolds (control, white bars), PU-G scaffolds (grey bars) and PU-LN1 scaffolds (black bars) at different time points. *p<0.05, **p<0.01, ***p<0.001 vs. control, #p<0.05, ##p<0.01, ###p<0.001 vs. PU-G scaffolds. 14 Grieco Nobile/Sanseverino 21 Bionanotecnologie (Ciardelli) 21/04/2022 Modifiche superficiali – Adesione Cellulare Nella seguente lezione si cercherà di capire come le cellule interagiscono con l’esterno. Per esterno si può intendere sia la matrice extracellulare del tessuto biologico ma anche un‘interfaccia artificiale. Le nanotecnologie sono un’importante tecnologia abilitante per riuscire a costruire queste interfacce. In primis, prima bisogna capire com'è fatta la cellula e come interagisce con l’esterno e poi si cerca di sfruttare questa conoscenza per progettare dispositivi atti a massimizzare l’efficienza di questa comunicazione. La cellula La cellula (dal latino piccola camera) è l'unità morfofunzionale, cioè di forma e di funzione, degli organismi viventi, la più piccola struttura ad essere classificabile come vivente. Ogni cellula può esser definita come un'entità chiusa ed autosufficiente: essa è infatti in grado di assumere nutrienti, di convertirli in energia, di svolgere funzioni specializzate e di riprodursi se necessario. L’origine della vita c’è stata quando si sono formate le prime rudimentali camerette nel brodo primordiale. Questo probabilmente è stato possibile perché si sono formate delle molecole dette anfifiliche, nel senso che hanno una testa idrofilica e delle code idrofobiche. Questi materiali sono in grado di autoassemblarsi in soluzioni acquose disponendosi con le teste all’esterno verso la fase acquosa e le code all’interno (configurazione a micella). C’è anche una configurazione più complessa in cui le code si organizzano a formare un doppio strato lipidico. Il doppio strato lipidico separa l’interno dall’esterno (in entrambi i casi è presente l’acqua). Questo sistema rudimentale di compartimentazione si è evoluto via via in compartimentazioni più complesse; quindi, all’interno della cellula si trovano altre vescicole siffatte che delimitano altri organelli cellulari. Quello che interessa è l’interfaccia tra l’interno e l’esterno della cellula, la quale è garantita dal doppio strato lipidico. La membrana cellulare, anche detta membrana plasmatica, è un sottile rivestimento con spessore di 5 nm (50 Å), che delimita la cellula in tutti gli organismi viventi, la separa dall'ambiente esterno e ne regola gli scambi con questo. Formata in prevalenza da lipidi, e più precisamente fosfolipidi, viene chiamata anche "doppio strato fosfolipidico". Nella componente lipidica si vanno a collocare, con importanti funzioni fisiologiche, le proteine e una piccola percentuale di glucidi, in forma di glicoproteine e glicolipidi, e di molecole di colesterolo che la stabilizzano. 1 Grieco Nobile/Sanseverino 21 Bionanotecnologie (Ciardelli) 21/04/2022 All’interno del doppio strato ci sono molecole prevalentemente di natura proteica (dette proteine di membrana) che possono essere integrali, ovvero interamente incastonate nel doppio strato lipidico, oppure periferiche, ovvero possono essere appoggiate sul doppio strato lipidico all’interno o all’esterno. All’interno della membrana cellulare non ci sono solo proteine, ma ci sono anche componenti a composizione oligosaccaridica (zuccheri), in certi casi ci sono le cosiddette glicoproteine. Non solo le proteine, ma anche gli zuccheri hanno un ruolo nella comunicazione tra la cellula e l’esterno. Le proteine, oltre alla comunicazione, regolano anche i fenomeni di trasporto, ovvero quello che entra all’interno della cellula e quello che esce (le sostanze interessanti entrano e quelle di scarto escono). Il doppio strato lipidico protegge e regola questo trasporto in maniera intelligente, evitando che ci sia una semplice diffusione osmotica, cioè che il trasporto sia regolato unicamente dal gradiente di concentrazione. Riassumendo, la membrana plasmatica svolge le seguenti funzioni: 1. 2. 3. 4. tenere concentrate tutte le sostanze indispensabili alla vita; tenere fuori dalla cellula le sostanze dannose; rendere possibile la comunicazione con l’esterno; permettere la comunicazione intracellulare. Matrice Extracellulare (ECM) All’esterno della cellula c’è la matrice extracellulare (ECM), la quale è un’ entità strutturale complessa che circonda e supporta le cellule. La ECM è composta da 3 classi principali di biomolecole: 1. Proteine strutturali: le quali hanno il compito di tenere insieme le cellule del tessuto. La composizione della matrice extracellulare cambia un po' in funzione del tessuto considerato; una caratteristica comune è la presenza di proteine strutturali quali il collagene ed elastina che hanno il compito di sostenere le cellule nel tessuto. 2. Proteine specializzate: come ad esempio fibrillina, fibronectina e laminina. Anche in questo caso la loro presenza varia in quantità e qualità a seconda del tessuto considerato. 3. Proteoglicani: biomolecole complesse ad alto peso molecolare composte da un core proteico a cui sono aggraffate lunghe catene di unità disaccaridiche dette glicosamminoglicani (GAGs). Il più famoso è l’acido ialuronico, il quale ha il ruolo di conferire viscoelasticità alla matrice. 2 Grieco Nobile/Sanseverino 21 Bionanotecnologie (Ciardelli) 21/04/2022 1. Proteine Strutturali Collagene Il collagene è una proteina strutturale che viene sintetizzata per sintesi proteica. A partire dal gene, mediante il processo di trascrizione, viene prodotto RNA e c’è poi la traduzione che produce la proteina. La sintesi proteica in realtà non sintetizza il collagene di per sé, ma delle catene polipeptidiche (di amminoacidi) che poi si avvolgono in una tripla elica (procollagene) e che poi vengono enzimaticamente modificate eliminando le due teste, diventando tropocollagene. Queste triple eliche si organizzano in strutture più organizzate che sono le fibrille e poi le fibre 🡪 il collagene è quindi un materiale fibroso. Esistono numerosissimi tipi di collagene propriamente detto e diverse proteine che hanno struttura polipeptidica largamente assimilabile al collagene. In letteratura sono stati finora descritti 28 tipi di collagene. Elastina L’altra proteina strutturale è l’elastina, la quale è un elastomero. Ha un dominio idrofobico e delle zone in cui si creano i cosiddetti cross-link (legami trasversali) tra le catene proteiche che permettono alla proteina di avere una memoria. Così come accade per gli elastomeri sintetici, si può esercitare una trazione ed una volta rilasciato il carico, il materiale torna nella sua composizione originale. 3 Grieco Nobile/Sanseverino 21 Bionanotecnologie (Ciardelli) 21/04/2022 2. Proteine specializzate La composizione dell’ ECM varia a seconda dei tessuti. Ci sono delle proteine che sono abbastanza vitali come, ad esempio, la fibronectina. Questa ha una struttura glicoproteica, cioè è una proteina ma che contiene anche dei segmenti poligosaccaridici (quindi contiene amminoacidi e monosaccaridi) e la si trova in tutti i tessuti connettivi. È il fattore di legame tra le fibre di collagene (quelle strutturali) e i fibroblasti. La laminina ha la stessa composizione e si trova nelle membrane basali. Lega il collagene IV alle cellule. Ci sono delle proteine specializzate quali, ad esempio, l’osteonectina che si trova nel tessuto osseo. Media l’attacco di Ca++, idrossiepatite-collagene I. La condronectina è l’equivalente dell’osteonectina che si trova nella cartilagine. È il fattore di legame tra il collagene IV e i condrociti. Come comunica la cellula? La cellula comunica tramite specifiche interazioni sia con la matrice extracellulare sia con altre cellule. Tali interazioni sono fondamentali per determinare precise risposte fisiologiche (o patologiche). 1. Interazioni CELLULA-ECM: L’ECM fornisce: - istruzioni per tutti i processi cellulari (dice alla cellula cosa fare in specifici momenti) supporto meccanico alla migrazione cellulare ospita le molecole che trasportano i messaggi. Alcuni messaggi sono forniti dalle molecole della matrice extracellulare, altri invece sono portati da molecole solubili chiamate citochine o fattori di crescita, che vengono trasportati dalla matrice extracellulare, protetti dalla degradazione e presentati ai recettori cellulari in maniera efficace. 4 Grieco Nobile/Sanseverino 21 Bionanotecnologie (Ciardelli) 21/04/2022 E quindi l’interazione cellula-ECM promuove: - adesione cellulare (la cellula aderisce in una certa posizione) migrazione cellulare crescita differenziamento (nel caso di cellule staminali) morte programmata (apoptosi) modula: - attivazione di molecole segnale (citochine) produzione di fattori di crescita (GF) produzione di segnali intracellulari che migrano nella matrice Come riceve la cellula questi messaggi? Sono responsabili di questo le proteine di membrana. La trasmissione del messaggio può avvenire in due modi: • Se la proteina di membrana è direttamente collegata al citoscheletro (es. integrina), il segnale viene trasferito tramite il citoscheletro dalla membrana al nucleo e si attivano i processi di PROLIFERAZIONE e DIFFERENZIAMENTO, accendendo e/o spegnendo certi geni in funzione del messaggio ricevuto 🡪 in questi casi si parla di trasmissione meccanica del segnale. • Se il legame avviene con una proteina (fattore di crescita) non collegata al citoscheletro l’espressione genica per i meccanismi di crescita e differenziamento cellulare è regolata attraverso segnali di tipo chimico, tramite l’attivazione di una cascata proliferativa. In questo caso non c’è una trasmissione di tipo meccanico, ma di tipo biochimico. 5 Grieco Nobile/Sanseverino 21 Bionanotecnologie (Ciardelli) 21/04/2022 Riassumendo : I segnali dall’ECM attraverso molecole, segnali, fattori di crescita o le stesse proteine funzionali dell’ECM regolano l’espressione genica, cioè dicono al nucleo quali geni accendere e quali spegnere e di conseguenza quali proteine produrre. Il risultato può essere, ad esempio, il differenziamento in tessuti delle cellule staminali, le quali possono diventare: eritrociti, cellule del sistema immunitario, cellule della muscolatura cardiaca o di quella liscia, cellule neuronali, cellule beta o cellule strutturali tipo condrociti e osteoblasti. C’è il dualismo fra sopravvivenza ed apoptosi della cellula. Quando questi segnali mancano, cioè in assenza di informazioni, la cellula comincia il suo processo di degradazione: comincia a rattrappirsi, la cromatina (la quale supporta il DNA) si condensa, la membrana da tondeggiante comincia a deformarsi fino a collassare e formare i cosiddetti corpi apoptotici, cioè la cellula si frammenta in goccioline che contengono le sostanze contenute nella cellula. Queste sostanze possono far comodo alle altre cellule e quindi vengono riciclate mediante il processo di lisi dei corpi apoptotici: si rimuove il rivestimento fosfolipidico e si recuperano i materiali. 2. Interazioni CELLULA-CELLULA: I segnali che arrivano possono dare una risposta funzionale di sopravvivenza o di divisione della cellula. Ad esempio, i segnali A,B,C dicono alla cellula di sopravvivere, poi se si aggiungono i segnali F e G si può avere una divisione cellulare. Se invece sostituiamo i segnali F e G con D ed E, la cellula può essere indotta a differenziare, c’è una staminale che diventa una cellula matura. 6 Grieco Nobile/Sanseverino 21 Bionanotecnologie (Ciardelli) 21/04/2022 Le cellule mesenchimali, le quali sono cellule staminali, possono differenziare in osteoblasti, adipociti o condrociti (rispettivamente cellule dell’osso, del grasso o della cartilagine). In mancanza di segnali, la cellula può andare incontro all’apoptosi. Adesione cellulare Le antenne cellulari, chiamate anche molecole di adesione perché sono responsabili anche dell’adesione della cellula ad un determinato substrato, sono delle proteine che hanno tre domini: • • • Intracellulare, che interagisce con il citoscheletro; Transmembrana, cioè che attraversa il doppio strato lipidico; Extracellulare, cioè che si trova al di fuori della cellula e interagisce con altre molecole di adesione che si trovano all’esterno. Queste molecole possono essere o molecole simili in un’altra cellula (allora si parla di legame omofilo) oppure possono contattare (ed è in particolare quello che fanno le integrine) le proteine della matrice extracellulare (in questo caso si parla di legame eterofilo) oppure proteine diverse contenute nelle cellule. La maggior parte delle molecole di adesione appartiene a 4 famiglie proteiche: • • • • Caderine: responsabili dell’adesione cellula/cellula Superfamiglia Immunoglobuline: hanno dei foglietti beta che vanno ad interagire tra di loro. La struttura beta è una struttura secondaria delle proteine Selectina/proteina glicosilata: solo nei vertebrati. Le selectine fanno prevalentemente legami di tipo eterofilo. Constano di un piccolo dominio citoplasmatico, un singolo dominio transmembrana ed una serie di domini extracellulari più grandi, che in genere si legano alle parti costituite da carboidrati che troviamo sulla membrana cellulare. Integrine: eterodimeri costituiti da una subunità alfa e una beta diverse tra loro unite da legame non-covalente. Legano le proteine della ECM (per esempio la fibronectina), entrano in gioco in interazioni cellula/cellula (ad es. nei leucociti) ed interagiscono con la superfamiglia Ig. 7 Grieco Nobile/Sanseverino 21 Bionanotecnologie (Ciardelli) 21/04/2022 Meccanismi che regolano l’adesione cellulare Andiamo ora a vedere che cos’è che regola l’adesione/interazione di una cellula ad una determinata superficie. • Intanto, un concetto importante da ricordare è che la membrana cellulare ha una carica netta negativa, quindi tendenzialmente tutto ciò che è carico negativamente tende a respingere le cellule e tutto ciò che è carico positivamente tende ad attrarle. • In genere, l’adesione è modulata da (circa 100 tipi di) recettori della superficie cellulare che si legano a specifiche sequenze peptidiche delle proteine dell’ECM (tipo la fibronectina) o a molecole diverse (tipo i fattori di crescita o le citochine). Queste molecole si chiamano ligandi. In assenza di ligandi e quindi in assenza di queste interazioni, l’adesione è di tipo elettrostatico, quindi carica netta negativa, o è regolata dalla bagnabilità, cioè dalla tensione superficiale della superficie. (Concetto di bagnabilità: se si mette una goccia d’acqua su una superficie, si misura l’angolo di contatto e si va a vedere la forma della goccia, ci si rende conto della bagnabilità della superficie) Superficie bagnabile • - - • Superficie idrofobica Fattori per controllare la forza delle interazioni: tensione superficiale; la carica superficiale aumenta l’adesione; rugosità superficiale: più è alta AS (area specifica), più le cellule tendono a aderire al substrato. Qui entra per la prima volta il concetto dell’importanza delle nanotecnologie in questo contesto perché, anche se le cellule hanno dimensioni micrometriche (quindi come entità complessiva non riconoscerebbero la nanoscala), in realtà i recettori sulla loro superficie hanno dimensioni nanometriche e riconoscono la nano-strutturazione delle superfici. Quindi, tramite una fabbricazione alla nanoscala delle superfici, aumentiamo l’area specifica, perché ricordiamo che il rapporto area su volume alla nanoscala è alto perché dipende da 1/L, per cui più piccolo è L, più sarà grande questo rapporto. Quindi, con la nanotecnologia aumento quest’area specifica e posso aumentare l’adesione cellulare. Anche senza segnalazione di tipo biochimico, riesco a comunicare con le cellule. chimica superficiale: tramite la presenza di ligandi di adesione (fibronectina, collagene, rivestimenti idrofilici) ma anche di gruppi (come, per esempio, il gruppo amminico) posso avere un aumento dell’adesione. In certi casi, posso voler evitare quest’adesione cellulare. Basti pensare al caso di una protesi vascolare, in cui non vogliamo che ci siano coaguli e che le piastrine si attacchino sulla superficie. In quei casi, si va a rivestire il sistema con un rivestimento carico negativamente. Per esempio, l’albumina o l’eparina sono proteine solforate che respingono le cellule, in questo caso le piastrine. È possibile controllare anche vitalità e crescita cellulare. 8 Grieco Nobile/Sanseverino 21 Bionanotecnologie (Ciardelli) 21/04/2022 - Esempio: cellule nervose su polimeri conduttori. • Le cellule diffondono sulla superficie. Possiamo pensare di rivestire la superficie in modo da indurre l’adesione cellulare. Ad esempio, si sa che la fibronectina ha delle sequenze RGD (arginina- glicina- aspartico) che sono responsabili del legame con le integrine. Quindi, in realtà, l’integrina non si lega con tutta la fibronectina ma con una sua porzione. Se funzionalizziamo la nostra superficie polimerica con un gruppo RGD, riusciamo a mimare il legame che c’è tra cellula e matrice extracellulare. Non abbiamo bisogno di legare tutta la fibronectina, ma ci si può anche limitare a legare delle sequenze peptidiche in grado di espletare questa comunicazione. Spreading cellulare Andiamo adesso a vedere, dal punto di vista biologico e biomolecolare, come si comporta la cellula quando incontra una superficie, che può essere una superficie naturale (quindi l’ECM) o una superficie artificiale. Lo “spreading” cellulare (appiattimento cellulare) è un processo che unisce l’adesione cellulare e la rete contrattile intracellulare (cioè il citoscheletro). Rappresenta la fase immediatamente successiva all’adesione cellulare. Quindi cosa fa una cellula? Inizialmente, mettendo la cellula su una superficie, è tondeggiante. Poi, ad un certo punto, comincia a tastare la superficie e cominciano a formarsi delle protrusioni citoplasmatiche; quindi, la cellula cambia la sua forma e si allunga sfruttando la mobilità che le fornisce il citoscheletro. Quando ha formato un certo numero di protrusioni e, se le interazioni sono efficaci, la cellula può addirittura assumere la forma completamente appiattita mostrata in figura D. Questo processo di spread ovviamente si blocca laddove la cellula incontra un’altra cellula. Se, invece, la lasciamo da sola, rimane in quel modo lì. 9 Grieco Nobile/Sanseverino 21 Bionanotecnologie (Ciardelli) 21/04/2022 Se la superficie non piace alla cellula, allora rimarrà tondeggiante per un po' e poi, probabilmente, dopo qualche giorno, si staccherà e morirà. Formazione di punti focali Il primo processo è, quindi, il processo di adesione, che precede lo spreading. Si ha la formazione di protrusioni e il primo evento è l’integrina che va a cercarsi un punto di aggancio. Immaginiamo di aver rivestito con fibronectina la superficie, allora l’integrina andrà a legarsi con gli RGD della fibronectina nel modo visto prima. La fibronectina si lega ad altre proteine, che sono la talina e la vinculina (inizialmente in forma inattiva). Immaginiamo che quello contrassegnato con il numero 1 sia il primo evento e quello con il 2 il secondo. Qui c’è una scala sia spaziale che temporale, la seconda è già un’adesione focale più matura in cui le integrine si sono dimerizzate, quindi ce ne sono 2, ci sono 2 taline e 2 vinculine attive (da inattive sono passate ad attive) legate all’actina. Intorno al punto di adesione focale, si costruisce poi un citoscheletro, quindi un’organizzazione di actina che si legherà poi alla miosina e manderà i segnali al nucleo (questo ovviamente nel caso in cui l’interazione iniziale sia positiva). Se l’interazione iniziale è negativa, il nucleo smette di sintetizzare integrine e, anzi, quelle presenti vengono distrutte. Intorno a questi punti di adesione focale, ci sono delle interazioni più deboli, che si chiamano CLOSE CONTACT (siti meno forti di adesione che in genere circondano l’adesione focale) o semplici CONTATTI con la ECM (legami elettrostatici tra membrana cellulare e il substrato della matrice). Questo fenomeno può essere visto sperimentalmente con quella che si chiama immunoistochimica. È stato preso un anticorpo (in nero) che riconosce le integrine. L’anticorpo ha allegato un colorante fluorescente (in rosso). I punti in rosso, nella figura sottostante, sono i punti di adesione 10 Grieco Nobile/Sanseverino 21 Bionanotecnologie (Ciardelli) 21/04/2022 focale perché nella cellula abbiamo colorato le integrine. Le righe verdi, invece, sono degli anticorpi che riconoscono l’actina, che abbiamo colorato in verde. È come se fosse una rete di collegamento, una rete neurale, in cui dai punti di adesione si vedono partire dei filamenti che vanno a comunicare con il nucleo. Volendo entrare nel dettaglio, nella prossima slide è mostrato tutto il design molecolare. Qui si vedono: • • le interazioni delle integrine con la superficie esterna le taline e le varie proteine coinvolte che si legano all’F-actina, la quale, tramite la miosina, porta la tensione al nucleo e dà il messaggio dal punto di vista molecolare. Le adesioni focali evolvono, la struttura matura è quella mostrata in figura in cui le integrine sono collegate a strutture di actina e miosina contrattili. All’inizio, invece, si ha una rete di actina (chiamata lamellipodi) che serve più allo spostamento della cellula. La cellula si sposta, trova il contatto, il citoscheletro si riorganizza e una struttura di questo tipo trasmette il segnale. Tutto questo può essere visto come un meccanosensore che trasforma una perturbazione meccanica in un segnale che promuove poi la formazione di adesioni focali e attiva il signalling delle integrine. Questi fenomeni di adesione sono visibili nei seguenti filmati, nei quali si vede l’interazione cellulasuperficie e cellula-materiale. • https://www.youtube.com/watch?v=75ntMVPtP3Y → si vedono 4 cellule e gli spot luminosi sono proprio i punti di adesione focale. 11 Grieco Nobile/Sanseverino 21 Bionanotecnologie (Ciardelli) 21/04/2022 • https://www.youtube.com/watch?v=Lto3v22l4MA → qui si vede come lo spreading può avvenire sia in forma isotropica che in forma anisotropica, a seconda della superficie. • https://www.nanolive.ch/pcl-fibers-cell-nanomaterial/ → questo video deriva da un sito di un sistema di imaging che si chiama Nanolive e fa vedere come le cellule rispondono a superfici con proprietà diverse; questo è un modo per comprendere il design di biomateriali per specifiche applicazioni come tissue engineering. In questo video si vede un osteoblasta che interagisce con fibre di policaprolattone sia lisce che porose; le interazioni sono un po' diverse a seconda del fatto che il supporto sia poroso o meno. Si vedono i lamellipodi e filopodi, ovvero le protrusioni che la cellula fa per muoversi tra la cellula e i pori del PCL, in modo da ancorare la cellula alla superficie. Si vede proprio uno scambio di materiale tra cellula e fibre. Si pensa che queste vescicolette che stanno nella cellula contengano proteine della matrice extracellulare, come ad esempio la osteonectina che serve per far depositare il calcio. Quindi l’adesione cellulare e lo spreading sono influenzati dalle caratteristiche chimiche e fisiche del sottostante substrato solido. L’energia libera di superficie del substrato è collegata allo spreading cellulare. Substrati idrofobici diminuiscono questo fenomeno che viene invece favorito da superfici idrofiliche in presenza e assenza di proteine adsorbite. Adesione cellulare: comportamento successivo Osservando la forma della cellula a contatto con una certa superficie, è possibile anche trarre delle indicazioni su quello che la cellula effettivamente sta facendo. 12 Grieco Nobile/Sanseverino - - 21 Bionanotecnologie (Ciardelli) 21/04/2022 una cellula tondeggiante e piccola sulla superficie vuol dire che ‘non sta bene’, quindi ha una bassa viabilità, non sta migrando, proliferando e non sta andando incontro ad un processo di differenziamento (nel caso di cellula staminale); un medio spreading invece, dice che si ha una viabilità alta, la cellula tende a migrare e a proliferare, ma non tende a differenziarsi; un alto spreading dice che essendoci maggiore differenziamento c’è anche una buona viabilità, ma sono meno efficienti i processi di migrazione e proliferazione. Interazione cellula/superficie È possibile regolare una superficie in maniera che possa favorire i processi di adesione, di spreading cellulare e formazione dei punti focali, ovvero si creano delle superfici con proprietà adatte a favorire tali processi, andando a modulare le proprietà superficiali con varie tecnologie ad esempio: A- la chimica superficiale che permette di costruire delle funzionalizzazioni dei gradienti della sequenza RGD che stimolerà l’adesione; B- si può agire sulla carica superficiale di un substrato dato che se esso è carico positivamente stimolerà l’adesione, mentre se è carico negativamente la scoraggerà; C- si può agire sull’idrofilicità, in quanto ci sono dei valori di angolo di contatto (e quindi di idrofilicità) non troppo alti che favoriscono l’adesione cellulare, mentre comportamenti diversi possono inibirla; D- è possibile variare la topografia superficiale; E- è possibile agire anche sulla rigidezza del substrato. In A, B, C e D dominano le proprietà di superficie, però anche le proprietà massive, cioè E, possono avere una certa importanza. Quindi ci sono questi 5 fattori che si possono modulare: 13 Grieco Nobile/Sanseverino 21 Bionanotecnologie (Ciardelli) 21/04/2022 A. Chimica superficiale La chimica superficiale, la bagnabilità e la carica superficiale giocano un ruolo fondamentale nella risposta biologica in termini di adesione cellulare, morfologia, proliferazione e differenziamento. È riportata una ricerca in cui sono state prese delle cellule staminali dalla matrice ossea (BMSC) e sono state coltivate su substrati massivamente uguali, ma funzionalizzati con gruppi diversi: gruppo amminico, gruppo carbossilico, gruppo metilico e gruppo ossidrilico. Da questo esperimento, dopo 7 giorni di coltura si vede che mentre a e in b c’è uno spreading buono, in c e d invece si ha una maggiore percentuale di cellule più tondeggianti. Questo lavoro è una prima indicazione del fatto che, a seconda del gruppo funzionale che influenza la bagnabilità e la carica superficiale, si ha un comportamento cellulare diverso a contatto con la superficie. È riportato anche un altro esperimento. È stata presa una superficie di controllo non funzionalizzata, poi si utilizzano i gruppi visti prima e si valuta non solo la forma della cellula qualitativamente col microscopio, ma si fanno anche delle indagini quantitative. 14 Grieco Nobile/Sanseverino 21 Bionanotecnologie (Ciardelli) 21/04/2022 In B misura l’area complessiva della cellula nei vari casi e si vede che per il gruppo amminico, gruppo ossidrilico e gruppo metilico si hanno delle differenze significative rispetto al controllo. In C, guardando la formula della cellula, si misurano anche i prolungamenti primari, secondari e terziari della cellula e si confrontano con il controllo. Anche in questo caso il gruppo amminico ha una differenza significativa rispetto al controllo. Queste due (B e C) possono essere considerate delle analisi più morfologiche, mentre D ed E rappresentano la parte più ‘molecolare’, in cui si va a vedere effettivamente come questo contacting viene trasmesso al lavoro che fa il nucleo. In particolare in D si vede l’espressione genica, ovvero quanto i geni vengono trascritti in mRNA e i geni che si vanno a vedere sono geni caratteristici del fenotipo osteogenico (quindi quanto le cellule staminali da polpa dentale umana si stanno trasformando in osteoblasti, ovvero cellule che sintetizzano l’osso. In E si vanno a vedere le proteine attraverso il western blot, ovvero delle separazioni elettroforetiche che poi vengono sviluppate con anticorpi specifici. In E l’intensità della banda elettroforetica dice quanto beta-actina, ALP ecc, vengono prodotti dalle cellule come proteine. Quindi, la cosa importante da capire è che variando la chimica superficiale (e quindi agendo indirettamente sulla bagnabilità e la carica del substrato) sullo stesso materiale, è possibile influenzare fortemente il comportamento cellulare. Ad esempio, semplicemente con una funzionalizzazione superficiale si riesce ad indurre differenziamento cellulare. B. Carica superficiale La presenza di una carica superficiale influenza significativamente la capacità delle cellule di aderire al substrato. In particolare, essendo la membrana cellulare carica negativamente, tale capacità è incrementata in presenza di superfici che espongono carica positiva mediante la formazione di interazioni elettrostatiche. È riportato un esperimento. 15 Grieco Nobile/Sanseverino 21 Bionanotecnologie (Ciardelli) 21/04/2022 Sono riportate delle superfici a carica positiva crescente verso il basso, misurata con misurazione di potenziale Zeta. Le superfici hanno un’aumentata carica positiva e si vede che dopo 4 ore le cellule proliferano molto meglio sulla superficie carica positivamente; dopo un giorno si vedono le cellule adese. Inoltre, il lavoro complessivo dice anche che aumenta l’attività della fosfatasi alcalina nelle cellule e l’espressione genica della chinasi di adesione focale e marker osteogenici. Quindi aumentando le interazioni elettrostatiche con le cellule si può influenzare il loro comportamento e la loro espressione genica. C. Bagnabilità superficiale La bagnabilità superficiale è un fattore determinante nell’adesione e proliferazione cellulare. In particolare, risultati migliori si riescono ad ottenere con superfici moderatamente bagnabili, ovvero con angolo di contatto tra 70° e 80°. Superfici idrofobiche e idrofiliche vedono la presenza di cellule tondeggianti o appiattite. Spiccata idrofobicità e spiccata idrofilicità limitano l’adesione: 106 gradi vuol dire una forte idrofobicità fa si che le cellule siano più tondeggianti sulla superficie e poco adese; a 80 gradi c’è una buona adesione anche se lo spreading è più ampio (questo non è detto che sia un fattore positivo); a 0 gradi si ha una superficie molto bagnabile e la cellula tende a spiaccicarsi in maniera più evidente. Non è ancora evidente, invece, una correlazione tra bagnabilità superficiale e differenziamento cellulare. 16 Lachello/Palladino 22 Bionanotecnologie (Ciardelli) 22/04/2022 TOPOGRAFIA Nella lezione precedente è stato esposto come modificare la chimica superficiale, la carica superficiale e la bagnabilità, che sono 3 elementi che possono influenzare la risposta cellulare. Quando le cellule vengono a contatto con la matrice, è stata anche citata la topografia quindi è stato valutato come le superfici lisce, rugose, allineate o con strutture disordinate determinano in maniera diversa la risposta delle cellule al substrato e che in certi casi le cellule possono anche seguire l'orientamento del substrato stesso e questo può essere utile per la funzionalità finale delle cellule stesse ed eventualmente del costrutto bioingegnerizzato che si è realizzato. Ci sono dei tessuti che in particolare hanno come caratteristica propria quella dell'anisotropia, tipico è il tessuto muscolare piuttosto che il tessuto nervoso. Questa strutturazione (rugosità) in inglese si chiama patterning: fornisco una geometria al substrato che può svilupparsi sia alla micro che alla nanoscala con effetti diversi sulle cellule. • • Micropatterning: influenza la posizione cellulare, la crescita, la morfologia e la riorganizzazione del citoscheletro Nanopatterning: promuove l'adsorbimento di proteine e conseguentemente la migrazione cellulare, lo spreading di cui è stato parlato precedentemente, la proliferazione il differenziamento, l'espressione genica e l'integrazione con i tessuti. Si evince da questo elenco che la strutturazione alla nanoscala ha un effetto molto più impattante sulla risposta cellulare e sui processi cellulari e fisiologici, in figura c'è un esempio di costruzione di membrane nanofibrose a base di gelatina mediante la tecnica dell'elettrofilatura. Questa è una tecnica che permette, filando una soluzione polimerica e inserendola in un campo elettrico, di produrre delle fibre di dimensioni nanometriche e, a seconda di come si progetta il sistema di raccolta, si possono ottenere delle fibre disposte in maniera casuale (A) oppure delle fibre con un orientamento prevalente(B). In questo lavoro sono state ottenute delle fibre di gelatina. La gelatina di fatto è collagene denaturato, non più organizzato nella tripla elica, nonostante ciò è un materiale che mantiene dei buoni gruppi e sequenze peptidiche di adesione cellulare. Sono state messe a confronto delle superfici di controllo, in questo caso capsula Petri di polistirene o vetro e cellule coltivate su strutture elettrofilate disordinate o su strutture elettrofilate allineate. Su queste superficie sono state coltivate cellule di Schwann (C) che sono dei fibroblasti. Considerando gli assoni, che sono quelle cellule che trasmettono impulsi nervosi, essi sono circondati da un rivestimento che si 1 Lachello/Palladino 22 Bionanotecnologie (Ciardelli) 22/04/2022 chiama guaina mielinica, questa guaina ospita le cellule di Schwann. Quindi come se fosse un connettivo che circonda e protegge l'assone e queste cellule sono state coltivate appunto sui due substrati in confronto con la piastra di coltura. La differenza più eclatante che emerge è che sulle strutture allineate, le cellule si sono orientate in una specifica direzione e a livello di rigenerazione è importante perché queste strutture sono allineate in lunghezza. Per esempio, se si avesse un danneggiamento di una parte dell'assone quello che si può fare è costruire una guida polimerica, ossia un tubo che ricongiunge i due monconi danneggiati, si otterrà il conseguente orientamento delle cellule Schwann che andranno a rivestire il tubo che quindi potrà poi ospitare l'assone, poi idealmente il tubo sarà degradabile, degradatosi, rimane solo la guida e quando l'assone si è rigenerato e riconnesso. Questo lavoro è stato effettutato per il Tissue Engeneering del sistema periferico, i migliori risultati sono ottenuti quando si è riuscito a ottenere l'allineamento con queste nanostrutture delle cellule in coltura. Proprietà meccaniche Differiscono dalle altre proprietà perché sono proprietà più massive, meno di superficie, però in questo caso la rigidezza del substrato gioca un ruolo fondamentale nel indurre determinate morfologie cellulari. In risposta alle proprietà meccaniche nel substrato una cellula può proliferare, differenziare, crescere, morire, cioè ricevere degli stimoli del tipo di quelli presenti in natura prevalentemente sono demandati a segnali di tipo biochimico, quindi anche controllando la rigidezza di un substrato si può indurre la cellula a dei comportamenti diversi che poi derivano dalla modifica dell'espressione genica. Nella figura cellule staminali da matrice ossea coltivate per 28 giorni su substrati con valori di modulo di compressione diversi. Le cellule si espandono maggiormente sul substrato con un valore di rigidezza pari a 24kPa, mentre mostrano una morfologia allungata su substrati più soft (A1, A2). Questo valore di modulo elastico è confrontabile con quello che si ritrova nell'osso, mentre tutti questi altri tessuti hanno dei moduli più bassi. 2 Lachello/Palladino 22 Bionanotecnologie (Ciardelli) 22/04/2022 Chiaramente è importante dal punto di vista chimico che il substrato sia lo stesso perché altrimenti si introdurrebbe un'altra variabile, quello che si fa è realizzare dei materiali, degli idrogeli, a diverso grado di reticolazione che hanno le stesse proprietà chimiche ma hanno diverse proprietà meccaniche perché il grado di reticolazione è diverso. Pertanto, il fine è progettare dei dispositivi dei biomateriali costituenti che appunto riescano a comunicare questi segnali alle cellule in maniera opportuna. LA STORIA DEI BIOMATERIALI BIOMATERIALE: un materiale concepito per interfacciarsi con sistemi biologici per valutare, supportare e sostituire un qualsiasi tessuto organo o funzione del corpo. • Dagli anni ‘50, I° generazione, si cominciò a prendere dei materiali utilizzati per altre applicazioni e a utilizzarli a contatto con il corpo umano con la speranza che fossero bioinerti, cioè che non provocassero una risposta negativa da parte del corpo e quindi venissero rifiutati. Per esempio, la gomma siliconica era un materiale abbastanza inerte che si provò a utilizzare in campo medicale e diede buoni risultati. • Dagli anni ‘70, II° generazione, si cominciò a introdurre il concetto di bioattività, cioè si richiedeva al materiale che non fosse solo inerte, ma che ,una volta impiantato, svolgesse funzioni controllabili all'interno dell'organismo. Una di queste funzioni richieste era la degradabilità soprattutto per quelle applicazioni in cui si voleva una azione temporanea che poi nel tempo lasciasse il posto a un tessuto o una funzione completamente rigenerata in maniera biologica. • Dal 2000, III° generazione, si è cominciato a introdurre questo concetto di capacità del biomateriale di stimolare delle reazioni cellulari particolari: attrarre le cellule, indurne il comportamento, e quindi di imitare quello che accade in natura, per tale motivo si coniò il termine di biomimeticità. 3 Lachello/Palladino 22 Bionanotecnologie (Ciardelli) 22/04/2022 INTERAZIONE BIOMATERIALE/PROTEINE Quando un biomateriale entra in contatto con fluidi biologici/tessuti, quindi il siero piuttosto che il plasma sanguigno, viene rapidamente rivestito da uno strato proteico adsorbito sulla superficie e tale strato assorbito è quello che il sistema immunitario vede, infatti l’azione immunitaria non viene direttamente provocata dall'impianto ma dalla presenza di questo strato proteico. In funzione dell'interrogazione del tratto assorbito del materiale, che ha provocato il suo assorbimento da parte delle cellule del sistema immunitario (neutrofili e macrofagi), vengono emessi dei segnali che possono essere di vario tipo. • • Segnale positivo, il materiale non è riconosciuto come estraneo, vengono reclutate cellule di tipo riparatore: fibroblasti e cellule mesenchimali, e l'impianto viene integrato in maniera efficace nel tessuto. Segnale negativo, il materiale è riconosciuto come estraneo, si forma quella che si chiama capsula fibrotica e tessuto di granulazione che è un sistema che l'organismo utilizza per isolare il biomateriale e per tentarne la degradazione con sostanze aggressive, le quali vengono secrete all'interno del tessuto di granulazione . Le proteine sono costituite aminoacidi che hanno varie caratteristiche dal punto di vista chimico, esistono amminoacidi basici, acidi, neutri, polari, idrofobi. Le proteine sono in genere costituite da domini diversi con caratteristiche diverse dal punto di vista della polarità, della idrofobicità ecc.. Trovano un loro dominio che è in grado di interagire efficacemente nel biomateriale in funzione della sua natura, quindi se un materiali è idrofilico, le porzioni idrofiliche della proteina 4 Lachello/Palladino 22 Bionanotecnologie (Ciardelli) 22/04/2022 tenderanno ad avvicinarsi al biomateriale stesso, questo può provocare variazioni della conformazione della proteina che tende a riarrangiarsi nello spazio per massimizzare le interazioni con il biomateriale, ciò provoca variazioni conformazionali o variazioni dell'orientamento. Può accadere che la proteina perda la sua conformazione nativa quindi si denaturi, anche parzialmente, e il risultato sarà un rifiuto da parte dell'organismo dello strato proteico assorbito (quello interrogato). Allo stesso modo superfici che abbiano spiccate caratteristiche idrofobiche o idrofiliche che siano quindi ultraidrofobiche o ultraidrofiliche minimizzano questo assorbimento proteico perché sono agli estremi di questo concetto, mentre le proteine sono qualcosa di ibrido, hannno varie proprietà, quindi, non gradiscono l'estremizzazione di queste proprietà. Rappresentazione schematica del processo di denaturazione, e conseguente perdita della conformazione, di una proteina adsorbita al trascorrere del tempo. Rappresentazione schematica del processo di adsorbimento di una proteina in diversi orientamenti. Con l’immagine sotto si ripete tale concetto, aggiungendo che si è in fase acquosa, si considera l'acqua di idratazione che può essere presente sulla superficie del biomateriale ed è l’insieme della superficie, dell'acqua assorbita e delle proteine che determina l'aspetto esteriore dell'impianto nel momento in cui viene interrogato dalle cellule. Se lo strato alla fine è nella sua conformazione nativa (proteine nella loro conformazione nativa) la risposta cellulare è positiva, se invece c'è una denaturazione, lo strato viene riconosciuto come estraneo e c'è una risposta negativa. Le proteine possono denaturarsi sulla superficie, annullando la loro funzionalità, o possono riarrangiarsi per alterare la loro funzione. • • • Forze entropiche associate con lo spostamento di acqua adsorbita sulla superficie (solvente), e aumento delle configurazioni delle proteine adsorbite rispetto a quelle in soluzione. Localmente elevata concentrazione alla superficie (può essere dipendente dalla concentrazione) Siti di legame possono essere occlusi o la conformazione alterata 5 Lachello/Palladino 22 Bionanotecnologie (Ciardelli) 22/04/2022 Un altro aspetto da considerare quando siamo a contatto con il siero è che vi è un grande numero di proteine di dimensioni diverse, di concentrazione diversa. Questo è descritto dall’effetto Vroman. Il plasma contiene oltre 100 proteine. L’effetto Vroman descrive l’adsorbimento di proteine diverse nel tempo. Vroman dimostrò che l’assorbimento di siero su una superficie è un processo dinamico in cui prima arrivano le proteine a basso peso e alta concentrazione(1A). Esse sono poi sostituite da proteine più grosse presenti in minore concentrazione, ma che hanno una maggiore affinità per la superficie (1C) o abbiano dimensioni maggiori e quindi diffondano più lentamente. All'inizio la cinetica fa prevalere la presenza di un certo tipo di proteina (sferette viola), ma ,in seguito, queste per effetto termodinamico per la maggiore stabilità del legame con le proteine di tipo diverso (ciambelline), sostituiscono le proteine assorbite inizialmente. Per tale motivo si afferma che l'assorbimento sul materiale è un processo dinamico, poiché una volta che si sono legate le proteine più interagenti al substrato non si torna più indietro, cioè il processo inverso di sostituzione di una proteina ad alta affinità con una proteina a bassa affinità non è più possibile. Detto questo la strategia da seguire potrebbe sembrare semplice, occorre però avvertire che se queste cose funzionano molto bene in vitro, non è detto che funzionino allo stesso modo in vivo. Per i motivi già detti, le superfici assorbono in vitro proteine diverse e hanno caratteristiche superficiali diverse e inducono una differente adesione proliferazione cellulare. In vivo molti biomateriali non hanno dato risposte molto simili fra loro in termini di integrazione e biocompatibilità, i motivi sono diversi: • • • • In vivo viene assorbito uno strato complesso e non specifico di proteine Questo strato, diverso da materiale a materiale contiene fino a 200 proteine più o meno orientate e denaturate La natura non utilizza questi strati aspecifici, ma solo poche, specifiche proteine in conformazioni fissate Questi strati specifici non sono riconosciuti sono visti come estranei e da eliminare Le strategie di funzionalizzazione devono essere tali da controllare la conformazione, l'orientamento delle proteine in maniera precisa in modo che ci sia un riconoscimento specifico da parte dell'organismo. 6 Lachello/Palladino 22 Bionanotecnologie (Ciardelli) 22/04/2022 PROGETTARE E COSTRUIRE MATERIALI BIOMIMETICI Poiché le interazioni cellula-scaffold avvengono principalmente all’interfaccia e poiché da esse ne deriva il comportamento delle cellule, è necessario implementare ben precise “strategie di superficie” per controllare le interazioni biologiche con i biomateriali. Le strategie biomimetiche tentano di emulare i metodi della natura per preparare superfici più funzionali e controllabili, in modo da ottenere funzionalità e specificità del dispositivo impiantato. Modulare le proprietà del materiale attraverso la modifica superficiale è considerata una strada promettente per migliorare le interazioni cellula-materiale e la biocompatibilità senza alterare le proprietà massive del materiale stesso. MODIFICA SUPERFICIALE DEI BIOMATERIALI La modifica superficiale è definita come un rivestimento o una modifica della superficie del materiale mediante tecniche fisiche, chimiche e biologiche al fine di sviluppare materiali con funzionalità diverse da quelle presenti nel materiale nativo. La più semplice strategia per migliorare la risposta biologica dei biomateriali è esporre sulla superficie gruppi funzionali (-NH2, -COOH, -OH) perché, come visto prima, questi sono in grado di modulare l’adesione, lo spreading e la proliferazione cellulare. 7 Lachello/Palladino 22 Bionanotecnologie (Ciardelli) 22/04/2022 MODIFICA SUPERFICIALE: AMMINOLISI Gruppi funzionali diversi esposti da superfici che abbiano le stesse caratteristiche possono influenzare in maniera diversa il comportamento cellulare e questo può essere fatto modificando le superfici con varie tecniche. Una di queste è l’amminolisi è una tecnica di modifica chimica utilizzata per esporre sulla superficie del materiale dei gruppi amminici che possono essere utilizzati direttamente per indurre una precisa risposta biologica (modifica primaria) oppure possono essere utilizzati come agganci per ancorare biomolecole (modifica secondaria); quello che si può fare è utilizzare una diammina con una catena abbastanza lunga e effettuare un amminolisi e quindi una lisi a livello del legame estereo. In figura presente il poliidrossibutirato che è un poliestere e presenta dei legami estere sulla superficie. Facendolo reagire con un’ammina, si ha la sostituzione nucleofila cinica, si forma un legame ammidico, con il rilascio di una molecola di alcol, ovviamente si usa una diammina che presenta dei gruppi amminici liberi. Confrontando il materiale PHB in forma di superficie liscia e di superficie fibrosa, nelle forme sia normali che dopo amminolisi, si nota che dopo quattro ore, un giorno e tre giorni, vi è una migliore interazione con i substrati fibrosi rispetto a quelli lisci. Tuttavia la forma migliore che permette di visualizzare la cellula con i suoi pseudopodi ben estesi e che presenta una migliore interazione con un substrato fibroso è quella che ha subito l’amminolisi. MODIFICA SUPERFICIALE: IDROLISI L’idrolisi è una tecnica di modifica chimica utilizzata per esporre sulla superficie del materiale dei gruppi carbossilici e idrossilici che, come per l’amminolisi, possono essere utilizzati direttamente per indurre una precisa risposta biologica oppure essere utilizzati come agganci per ancorare biomolecole. Se si prende in considerazione il polilatticoglicolicolo (poliestere), in catena sono presenti dei legami esteri che vengono fatti reagire con l’acqua ottenendo un alcol, che successivamente viene eliminato. 8 Lachello/Palladino 22 Bionanotecnologie (Ciardelli) 22/04/2022 Di fatto anche in questo caso vi è una diminuzione del peso molecolare perché dalla rottura dei gruppi esteri in catena vengono esposti dei gruppi carbossilici prima non presenti. L'esempio pratico specifico lavora su delle microsfere, ma potrebbero essere delle fibre caso preparate anche in questo caso con il metodo dell’emulsione doppia, già affrontata nelle lezioni di nanomedicina. Sul PLGA, in soluzione di idrossido di sodio, si fa un idrolisi lavorando a pH basico, che porta alla formazione dei gruppi carbossilici sulla superficie della microsfera. Questo è visibile indirettamente al microscopio elettronico perché le sfere prima e dopo il trattamento presentano una maggiore porosità. Non è quindi presente una risposta cellulare ma si ha solo l'evidenza del fatto che facendo la lisi venga rimosso anche del materiale, siccome si effettua una degradazione del polimero ottenendo una maggiore porosità. MODIFICA SUPERFICIALE: COATING DI POLI-DOPAMINA L’utilizzo di molecole che autopolimerizzano sulla superficie del materiale è una valida alternativa per migliorare le proprietà biologiche mediante processi semplici che richiedono blande condizioni di reazione. Tra questi, la dopamina è una molecola contenente strutture catecoliche, con gli OH legati al benzene ed molto utilizzata perché è in grado di autopolimerizzare formando un rivestimento omogeneo di polidopamina mediante semplice immersione in soluzioni acquose alcaline a pH 8,5. 9 Lachello/Palladino 22 Bionanotecnologie (Ciardelli) 22/04/2022 È un processo molto semplice non richiede reagenti e vedendo al microscopio si nota che la rugosità è molto aumentata, influenzando la risposta cellulare. Altro parametro che cambia l’angolo di contatto che passa da 84° a 64° quindi aumenta la bagnabilità, ritrovandosi in una zona in cui la bagnabilità influenza in maniera sensibile la risposta cellulare. MODIFICA SUPERFICIALE: TRATTAMENTO AL PLASMA Un altro metodo molto utilizzato è il trattamento al plasma. Il plasma può essere definito come un gas parzialmente o totalmente ionizzato costituito da un numero circa uguale di particelle cariche positivamente e negativamente. È anche definito come il quarto stato della materia, poiché, pur non essendo né liquido né solido, possiede proprietà simili a quelle dei gas e dei liquidi. Esso si forma quando in una sfera gassosa si fa avvenire una scarica elettrica, in natura succede quando ci sono i temporali: il gas da essere in forma atomica viene trasformato in una miscela di ioni radicali specie monoatomiche e diventa un oggetto molto più reattivo. Esistono due diversi tipi di trattamento al plasma: plasma ad alta temperatura (thermal plasma) e plasma a bassa temperatura (cold plasma). • Thermal plasma: trattamento che prevede il raggiungimento di elevate temperature e, quindi, impiegato principalmente per la modifica di superfici altamente resistenti (es. metalli), quello che si usa per esempio per trattare metalli cosiddette torcia al plasma • Cold plasma: trattamento che non prevede l’impiego di temperature elevate e a pressione ridotta, ampiamente utilizzato per la modifica superficiale di materiali polimerici per applicazioni nell’ambito della medicina rigenerativa e dell’ingegneria dei tessuti. Plasma a bassa temperatura Si tratta di gas ionizzati (particelle cariche e neutre e specie atomiche) a pressioni comprese tra 0.1 e 2 torr generati all’interno di camere a vuoto in cui sono stati eliminati i gas atmosferici. Il mantenimento di basse temperature è assicurato dall’impiego di basse pressioni che limitano la probabilità di collisioni tra particelle e molecole. 10 Lachello/Palladino 22 Bionanotecnologie (Ciardelli) 22/04/2022 Rappresentazione schematica dell’apparato per il trattamento al plasma. La pompa a vuoto rimuove i gas atmosferici dalla camera di reazione, la quale viene successivamente riempita con gas a bassa pressione. Il generatore energizza i gas presenti nella camera producendo il gas plasma che, interagendo con la superficie del materiale, trasferisce la sua energia alla superficie del campione. Il trasferimento di energia viene dissipato all’interno del campione attraverso una serie di processi fisici e chimici che, in ultimo, risultano in una modifica della superficie senza alterazione delle proprietà massive. La profondità del trattamento al plasma generalmente varia da centinaia di angstrom a decine di nanometri. La modifica dipende dal tipo di gas e dagli altri parametri di processo, ma sempre limitata a uno spessore abbastanza ridotto del materiale in oggetto. Ad esempio, in seguito alla variazione di potenza del generatore di radiofrequenza che si utilizzata, si possono ottenere delle rugosità diverse, come si può notare in figura sotto. Si parte da un substrato di polipropilene (PP) non trattato e con un profilometro si va a valutare la sua rugosità. All'aumentare della potenza della scarica elettrica si ha un aumento della rugosità, inoltre questa è maggiore se usate aria anziché ossigeno. • • • Mettendo ossigeno si introducono degli atomi di ossigeno e quindi dei gruppi OH sulla superficie. Usando ammoniaca o azoto si introducono degli azoti e quindi si può introdurre dei gruppi NH2. Gas inerti, quindi non reattivi, per esempio gas nobili come elio e argon invece generano dei radicali sulla superficie che poi sono esposti sulla superficie, reagiranno con l'aria a dare dei gruppi ossidrilici oppure potrebbero essere utilizzati per innescare delle 11 Lachello/Palladino 22 Bionanotecnologie (Ciardelli) 22/04/2022 polimerizzazioni, come detto in precedenza, in presenza di radicali con certi specifici monomeri è possibile iniziare la polimerizzazione. Nella polimerizzazione radicalica si utilizzano monomeri insaturi, cioè che contengono il doppio legame, particolari monomeri acrilici, vinilici o vinilidenici. In particolare se si attiva la superficie generando dei radicali liberi per esempio con un gas argon, quando colpisce il materiale generiamo specie attive che sono anche dei radicali, se poi si aggiunge per esempio un monomero insaturo come l’acido acrilico si può ottenerne la polimerizzazione, di fatto otteniamo un polimero abbastanza ingarbugliato e che però espone questi gruppi carbossilici sulla superficie. La modifica superficiale tramite trattamento al plasma prevede un processo composto di due fasi: 1. Attivazione della superficie o Etching: è la fase in cui vengono generati dei radicali liberi sulla superficie del campione fornendo energia al gas con il quale è stata riempita la camera di reazione; 2. Grafting o polimerazzione: è la fase in cui i radicali liberi vengono utilizzati per aggraffare e far polimerizzare un monomero sulla superficie. Il monomero deve essere introdotto nella camera di reazione in forma di gas/vapore. Rappresentazione schematica del processo di trattamento al plasma di polveri poliuretaniche (CHP407) per esporre sulla superficie gruppi carbossilici. Attivazione della superficie (etching) mediante formazione di radicali liberi in presenza di gas Ar ed esposizione di gruppi –COOH sulla superficie delle polveri mediante grafting/polimerizzazione di vapori di acido acrilico. Rispetto ad altre tecniche di modifica superficiale, il trattamento al plasma presenta numerosi vantaggi ed è ampiamente utilizzato per la modifica di materiali per applicazioni biomedicali: ✓ Trattamento a passo impatto ambientale, non si usano solventi ✓ è molto versatile perché a seconda di come definite il processo potrebbe esporre superfici funzionalità diverse ✓ Modifica superficiale preservando le proprietà massive ✓ Può essere condotto su superfici a geometria più o meno complessa (film, polveri, membrane fibrose, scaffold 3D) ✓ Può introdurre una rugosità superficiale modulabile in funzioni dei parametri di processo ✓ Può essere facilmente combinato con altre tecniche di modifica superficiale 12 Lachello/Palladino 22 Bionanotecnologie (Ciardelli) 22/04/2022 MODIFICA SUPERFICIALE: CHIMICA DELLE CARBODIIMMIDI La chimica delle carbodiimmidi è una chimica ampiamente utilizzata quando si intende modificare la superficie del materiale per esporre biomolecole specifiche (ad esempio, peptidi di adesione o proteine) e richiede la presenza di gruppi amminici o carbossilici sulla superficie che si vuole funzionalizzare. Questa chimica prevede, infatti, l’interazione tra un’ammina (primaria o secondaria) e un gruppo carbossilico, con la formazione di un legame ammidico (secondario o terziario) mediato da agenti di grafting detti carbodiimmidi. L’1-ethyl-3-(3-dimethylaminopropyl)carbodiimide (EDC) e l’Nhydroxysuccinimide (NHS) sono le carbodiimmidi maggiormente utilizzate poiché solubili in acqua. Ciò che fanno è trasformare il gruppo carbossilico COOH in gruppo estereo, dove però il gruppo R è un estere attivato e suscettibile dell'attacco nucleofilo del gruppo amminico. Si rende quindi inizialmente più reattivo il gruppo carbossilico, poi con una molecola contenente un gruppo amminico si crea il legame covalente. Lo scopo è immobilizzare la “stella” sulla superficie ottenedno questo risultato attrvaero la creazione del legame ammidico tramite la chimica delle carbodiammide. Si deve tuttavia prestare attenzione usando un pH acido per l'attivazione e poi abbassandolo, superando la pKa dello specifico NH2. È necessario quindi che questo sia protonato altrimenti si ha la perdota della capacità nucleofila e quindi si avrà la funzionalizzazione. È un metodo molto usato di funzionalizzazione delle superfici. Esempio specifico, c'è l'applicazione specifica di questo approccio: 13 Lachello/Palladino 22 Bionanotecnologie (Ciardelli) 22/04/2022 Il substrato specifico quindi quello chiamato sample è policaprolattone (PCL) sempre in forma di fibre, miscelato con fibre di acido poliantranilico, che lo rende un pochino più idrofilo. L’angolo di contatto del PCL è 133° quindi molto idrofobico, mettendo l’acido antranilico passa a 106°, un pochino meno idrofobico. Su questo sistema si fa esporre i gruppi carbossilici sfruttando quelli presenti nell'acido antranilico, aggiungendo la miscela NHSDC (formula delle n-idrossi-succinammide) alla carbodimmide, si osserva come ci sia un azoto quaternario legato a un cloro. L’azoto protonato rende il materiale solubile in acqua perchè è di fatto è un sale e quindi è solubile. Nell’immagine si osserva la presenza del legame CN delle diammidi (l’immide è una base di Schiff), che si attiva formando un estere attivo. Aggiungendo l’RGD che possiede il gruppi NH2 ( tre amminoacidi) si fa formare un legame ammidico ottenendo la sequenza amminoacidica argininaglicina-aspartico che viene riconosciuta per esempio nella fibronectina dalle integrine. La superficie di policaplottone e poliacidoantranilico in realtà non è altro che una mimica della matrice extracellulare. E’ stata testata la risposta biologica queste sono immagini al microscopio elettronico e al microscopio di fluorescenza, si vede il PCL, PCL acidoantranilico, PCL acidoantranilico in RGD, su tale superficie trovate una copertura di cellule maggiore e questo si vede anche alla immunofluorescenza che evidenzia tutti i nuclei con il citoscheletro. Dalla analisi qualitativa si passa ad una quantitativa se si considera la colonna verde che rappresenta il materiale modificato con RGD si vede che al giorno uno presenta un maggior numero di cellule rispetto agli altri substrati (miscela non funzionalizzata, miscela, solo prollatone e vetro per coltura cellulare). Questa quantità maggiore si mantiene nel tempo (asterischi e barre stanno a dire che le differenze sono significative), in tutti i casi non è solo più alta ma è significativamente più alta anche se considerate l'errore, e nel tempo inoltre c'è una buona proliferazione. Rispetto ad altre tecniche di modifica superficiale, la chimica delle carbodiimmidi presenta numerosi vantaggi ed è ampiamente utilizzato per la modifica di materiali per applicazioni biomedicali: ✓ Trattamento a basso impatto ambientale (trattamento green) ✓ Possibilità di aggraffare qualsiasi molecola purchè presenti un gruppo amminico o un gruppo carbossilico 14 Lachello/Palladino 22 Bionanotecnologie (Ciardelli) 22/04/2022 ✓ Trattamento ad elevata citocompatibilità perché i reagenti di grafting non prendono parte alla formazione del legame, ma vengono eliminati al termine del processo ✓ Può essere facilmente combinato con altre tecniche di modifica superficiale ✓ La reazione, e quindi il grado di funzionalizzazione, è facilmente controllabile agendo sui parametri di processo (pH e tempo di reazione) MODIFICA SUPERFICIALE: PHOTOGRAFTING Il photografting è una tecnica di modifica superficiale che prevede l’interazione tra un gruppo fotosensibile esposto sulla superficie del substrato e un gruppo fotosensibile, esposto sulla biomolecola, che si vuole aggraffare mediante la formazione di un legame covalente indotto dall’irraggiamento con una fonte luminosa UV/Visibile in presenza di un fotoiniziatore. Si ha un gruppo fotosensibile della biomolecola, cioè una specie che è reattiva con la luce. La superficie avrà a sua volta un gruppo fotosensibile, anche questo è reattivo con la luce quindi ovviamente la biomolecola si porterà dietro la parte funzionale, potrebbe essere RGD. A questo punto semplicemente si mette il fotoiniziatore, cioè una specie che rende possibile la reazione chimica, si accende la luce con raggio UV o meglio ancora visibile, si forma il legame chimico catalizzato dall'irraggiamento tra il gruppo fotosensibile e il gruppo più attivo, ma indirettamente vi è un legame covalente tra il campione e il gruppo attivo quindi si funzionalizza semplicemente con un irraggiamento, qui sotto l'esempio pratico. La parte funzionale, in questo caso è l'eparina, che ha dei gruppi solfato SO3- che possono reagire con la succiniammide (raggruppamento nero) e azidobenzailossi (parte viola). Gli azidobenzalossi costituiscono la parte reattiva alla luce (quadratino rosso) quindi in questo primo passaggio si crea il legame tra l'eparina e l’azzidobenzailossisuccinammide (pallina verde-quadratino rosso), si accende la luce, si attendono 3 minuti e si mette il substrato legando in questo modo l’eparina. 15 Lachello/Palladino 22 Bionanotecnologie (Ciardelli) 22/04/2022 Rispetto a tecniche di modifica superficiale più convenzionali, il photografting presenta numerosi vantaggi per la modifica di materiali per applicazioni biomedicali: ✓ Trattamento a basso impatto ambientale (trattamento green) ✓ Trattamento molto veloce e possibilità di modulare il grado di funzionalizzazione con elevata precisione ✓ Trattamento ad elevata citocompatibilità perché il fotoiniziatore ed eventuali componenti non reagite possono essere facilmente rimosse ✓ Può essere combinato con altre tecniche di modifica superficiale MODIFICA SUPERFICIALE: AVIDINA/BIOTINA Metodo di modifica superficiale, sfrutta l'interazione più forte che esiste in natura dal punto di vista biologico non covalente, che è l'interazione fra la avidina e biotina. L’avitina è una proteina nei mammiferi, mentre nei batteri si chiama streptavidina (ad esempio lo streptococco), e ha quattro tasche molecolari che possono ospitare la biotina che è invece una molecola organica, una vitamina (B12). Ogni molecola di avidina presenta 4 siti di legame, ciascuno per una molecola di biotina. Se la biotina è collegata a una biomolecola funzionale e quindi ad una proteina, per esempio la fibronectina piuttosto che un gruppo RGD, quello che si può creare è un legame che non è covalente ma è comunque molto forte perché c'è un'interazione molto forte, in pratica ci sono interazioni legame idrogeno all'interno della tasca. Si possono legare alla avidina le biomolecole perché si può immaginare di immobilizzare la avidina su un substrato e legarci la mia biomolecola biotinilata. Quindi una superficie con la streptavidina molto versatile invece potete attaccare diverse biomolecole a seconda di cosa di cosa ci fate reagire Vantaggi ✓ Elevata specificità, affinità e stabilità del legame ✓ È il più forte legame non covalente esistente ✓ Interazione indipendente da temperatura, pH, agenti denaturanti 16 Lachello/Palladino 22 Bionanotecnologie (Ciardelli) 22/04/2022 Svantaggi Difficoltà nell’avere un’alta densità superficiale di avidina a causa dell’ingobro perché comunque la la streptavidina o avidina è una proteina abbastanza grande occupa spazio sulla superficie, non si riesce ad avere densità di funzionalizzazione efficace in certi casi e inoltre si possono avere delle agglomerazioni dal fatto che comunque ogni avidina si prende quattro biotina e quindi quattro molecola quindi potete trovare troppe molecole agglomerate nello stesso punto Possibilità di effetti di clustering a causa dell’affinità tetravalente Immunogenicità nei sistemi viventi MODIFICA SUPERFICIALE: IMPRONTA MOLECOLARE La tecnologia molecular imprinting è un approccio intelligente per la modifica di superfici polimeriche attraverso l’introduzione di siti di riconoscimento specifici per le biomolecole. Trasferire i concetti di riconoscimento che ci sono in campo topologico i più famosi sono l’enzimasubstrato piuttosto che anticorpo-antigene e un altro potrebbe essere streptavidina-biotina trasferirli sul sistema sintetici. Questo processo prevede 3 fasi: 1. Si prende la molecola stampo template che si vuole sia riconosciuta dal sistema finale, si inseriscono delle molecole di reticolante e dei monomeri funzionali che devono essere in grado di interagire a livello molecolare con la molecola stampo , quindi viene mescolato il tutto, lasciato complessare i monomeri con lo stampo, si crea quindi il complesso di prepolimerizzazione. 2. Si inserisce quello che è necessario (es. iniziatore, scaldate sistema ecc) e comincia la polimerizzazione che è contemporaneamente anche una reticolazione, alla fine si ottiene un gel molto stretto, molto duro e compatto con incastonato all'interno le molecole stampo legate ai gruppi funzionali delle unità monomeriche (tipicamente si usano per esempio dei gruppi acrilici e si sfrutta la funzionalità COOH). 3. Se si lava questo sistema con un acido per esempio acido acetico o con un alcol, si rompono queste interazioni (legami idrogeno) e si porta fuori la molecola stampo. Una volta rimosso, questo, si lascia all'interno del polimero delle cavità, la molecola sarebbero in grado di riconoscere se incontrata successivamente e di legarla selettivamente, potrei avere idealmente un substrato poroso che si è messo a contatto con la matrice 17 Lachello/Palladino 22 Bionanotecnologie (Ciardelli) 22/04/2022 extracellulare (es. se è improntato per la fibronectina quando la mettete in vivo questo si arricchisce spontaneamente di fibronectina, la assorbe in una maniera molto efficace). L’accorgimento da stare attenti è quello che quando si impronta delle molecole grandi, come le proteine, c’è il rischio che in questo processo la proteina si denaturi e il rischio è fare l'impronta della proteina denaturata invece della proteina nativa. Se si impronta una sequenza più piccola, che può essere anche una porzione di proteina, allora in quel caso i rischi sono minori, (come l’RGD che non si denatura perché è molto corta). Alla fine, si ha un sistema polimerico fortemente reticolato che deve essere un sistema rigido in cui all'interno ci sono delle cavità che sono in grado di riconoscere, sia dal punto di vista geometrico ma anche dal punto di vista chimico, delle specifiche molecole che sono state usate nella fabbricazione di questi oggetti. MODIFICA SUPERFICIALE: ADSORBIMENTO Oltre alla modifica chimica di superfici, i processi di modifica fisica sono ampiamente utilizzati grazie alla loro maggiore sicurezza, biocompatibilità e ai ridotti costi di processo. L’adsorbimento è la più semplice tecnica di modifica superficiale fisica che prevede l’immersione del substrato che si vuole funzionalizzare in una soluzione contenente la biomolecola da adsorbire. Sebbene le interazioni che governano il processo siano prevalentemente di natura elettrostatica, nell’adsorbimento entrano in gioco anche forze idrofobiche, di Van der Waals e legami idrogeno, scopo e poi indurre una specifica reazione cellulare. Tuttavia, l’efficienza di questa tecnica può essere limitata da due fattori: scarsa stabilità del coating e impossibilità di controllare l’orientamento delle molecole adesive adsorbite. Confronto tra efficienza di modifica superficiale tramite adsorbimento e immobilizzazione chimica di lamina su una membrana nanofibrosa. Entrambi i processi di modifica favoriscono il differenziamento di cellule simil-neuroni PC12 su substrati che presentano la laminina adsorbita (SNF/L) e legata covalentemente (SNF-AP-S-L) fino a 18 giorni di coltura. Tuttavia, le cellule coltivate sul substrato con laminina aggraffata covalentemente mostrano una maggiore crescita neuritica e un superiore supporto nel differenziamento neuronale (C4-C6) rispetto a quelle coltivate sul substrato con modifica fisica (C1-C3). 18 Lachello/Palladino 22 Bionanotecnologie (Ciardelli) 22/04/2022 Nei due esempi si hanno le nanofibre di silice elettrospinnate su una superficie, si fa il coding fisico con laminina e la si fa assorbire in maniera fisica. (1) Si crea un legame chimico cioè metto a APTS che è l’ammino propil tri tossi silano creando dei gruppi amminici sulla superficie. (2) Si modifica poi con un'altra additivo la Sulfo-SMCC che ha un doppio legame che reagisce con un gruppo SH che è contenuta della laminina (3). Quello che si è fatto è creare un legame covalente fra la proteina e la superficie. Coltivo delle cellule ( neuroni) sui due substrati: quello fisioassorbito e quello in cui ho creato ul legame chimico. del giorno 6 (C1) , giorno 12 (C2), giorno 18 (C3), si osserva che nel caso della funzionalizzazione chimica si ha una maggiore crescita dei neuriti che sono i filamenti che producono le cellule nervose e che sono un segnale che stanno maturando che stanno diventando veri e propri neuroni (prima erano dei simil neuroni) e nonstante il differenziamento sia favorito dalla presenza della laminina questo differenziamento è molto più efficace soprattutto a tempi lunghi nel caso del legame chimico. MODIFICA SUPERFICIALE: SELF ASSEMBLER MONOLAYER (SAM) Il Self Assembled Monolayer (SAM) è una tecnica di modifica superficiale fisica che prevede l’immersione del substrato che si vuole funzionalizzare in una soluzione contenente molecole anfifiliche capaci di interagire con il substrato per formare spontaneamente un rivestimento altamente ordinato. Uno specifico substrato, può essere oro, allumina o silice e lo si immerge in una soluzione di molecole che sono costituite da una testa che interagisce col substrato, una coda idrofobica ed un gruppo R terminale che può essere un gruppo funzionale reattivo su cui puoi fare delle reazioni chimiche o può essere già una biomolecola. E’ un raggruppamento spontaneo che sfrutta 19 Lachello/Palladino 22 Bionanotecnologie (Ciardelli) 22/04/2022 l'interazione fra la testa delle molecole anfifiliche che poi si dispongono ordinatamente grazie alle interazioni idrofobiche che ci sono tra queste catene. Per esempio con l’oro posso avere dei gruppi SH, si forma un legame covalente quindi non è proprio un fisio assorbimento, ma un chemi assorbimento, alla fine si è ottenuto un legame fra il mio substrato e la biomolecola oppure il gruppo funzionale . Esempio: Ingegnerizzazione di un substrato capace di controllare la risposta cellulare in funzione dell’applicazione di un potenziale. Il substrato d’oro è stato funzionalizzato mediante tecnica SAM per esporre la sequenza peptidica adesiva RGD e gruppi carichi negativamente, gruppi solfato SO3-. Applicando un potenziale il rivestimento SAM subisce delle variazioni conformazionali che generano forze attrattive o repulsive. In particolare, in presenza di un potenziale negativo il substrato diventa resistente all’adesione cellulare; al contrario, in presenza di un potenziale positivo promuove l’adesione mediante l’esposizione del terminale RGD quindi se io metto su questo substrato le cellule queste si stendono ben bene aderiscono perché si vanno a cercare con le loro integrine i gruppi RGD, invece sulla superficie di prima si ha una situazione intermedia in cui la cellula sarà un po meno adesa questo può essere anche corretto se si vuole una proliferazione, meno se si vuole differenziamento. In questo modo è possibile controllare non solo l’adesione delle cellule, ma anche la loro morfologia e, in ultimo, il loro comportamento e destino. MODIFICA SUPERFICIALE: LAYER BY LAYER Il Layer-by-Layer (LbL) è una tecnica di modifica superficiale fisica che prevede la "costruzione" controllata di un rivestimento con spessore variabile tra pochi nm fino a diversi µm. La tecnica LbL consiste nell’immersione del substrato carico elettrostaticamente in soluzioni di polianioni e policationi al fine favorire la formazione di interazioni elettrostatiche e, quindi, la formazione del coating. Oltre alle interazioni elettrostatiche, giocano un ruolo anche le interazioni idrofobiche, legami covalenti e legami idrogeno. Si immagina di avere un substrato positivo, lo si immerge nel polianione, il quale riveste la superficie, sciacquo per rimuovere ciò che non si è assorbito, e a questo punto si mette il policatione. Si forma una deposizione layer by layer cioè strato dopo strato di elettroliti diversi, e a seconda di quanti se ne mettono si può regolare assumendo che si abbia uno strato monomolecolare si può regolare anche lo spessore. 20 Lachello/Palladino 22 Bionanotecnologie (Ciardelli) 22/04/2022 L'esempio pratico di questo lavoro funzionalizza le superfici con eparina e collagene alternati. L'eparina è carica negativamente, il collagene può essere carico positivamente purché si lavori al di sotto del pH inferiore al punto isoelettrico, quando rivestite quello che si fa è per esempio misurare l'angolo di contatto, a un certo punto arrivate dopo un po’ di strati in genere 5, si arriva ad una situazione di oscillazione dell'angolo di contatto perché ogni volta si ha sulla superficie uno dei due polielettroliti, quindi una volta misura l'angolo di contatto dell'eparina e una volta quello del collagene. Se ci si coltiva su tale superficie delgli osteoblasti si nota che sul multilayer vi sono delle cellule molto più spread, lo si vede dalla numerosità di nuclei, maggiori che nei casi di monofunzionalizzazione. LbL può realizzare dei rivestimenti e biologicamente attivi e biomimetici. Le varie tecniche possono essere anche combinate 21 Lachello/Palladino 22 Bionanotecnologie (Ciardelli) 22/04/2022 1. un amminolisi avere dei gruppi amminici e dopo legare con la chimica del carbodiammidi una proteina di tipo biologico. 2. plasma si può generare i gruppi carbossilici, poi attivarlo con le carbodiammidi e legarci dei peptidi. 3. Sam in cui il gruppo terminale è una biotina, al SAM si può attaccare un qualsiasi substrato biotinilato purché si abbia come intermezzo della streptavidina, perché avendo quattro la strepdavidina può legarsi allo stato di sotto del Sam che ha i gruppi terminali biotinilati e poi legare la biomolecola biotinilata dalla parte di sopra in questo modo si risolve il discorso delle densità. Applicazioni https://www.youtube.com/watch?v=75ntMVPtP3Y https://www.youtube.com/watch?v=Lto3v22l4MA https://www.nanolive.ch/pcl-fibers-cell-nanomaterial https://www.cambridge.org/core/journals/mrs-communications/mrs-communicationsbiomaterials-for-3d-cell-biology https://tissueeng.net/research/biomaterials/ https://varghese.pratt.duke.edu/research/smart-bioimaterials https://www.youtube.com/watch?v=uta5Vo86XL4 DOMANDA In che modo l'impronta molecolare può avere un risvolto nell'applicazione pratica dal momento che il substrato (giallo) sembra quasi inerte alla presenza della molecola stampo? Oppure si può funzionalizzare la superficie al fine di avere una particolare reazione quando viene captata una molecola simile al Template? Non è inerte perché conserva queste cavità che hanno la stessa geometria della molecola stampo e danno questi gruppi funzionali che sono in grado di rilegarla, si può immaginare che la molecola stampa sia fibronectina, si ha superficie impronta molecolare quando la si mette a contatto con un fluido biologico o la si usa come scaffold, questa se ha un'impronta per la fibronectina, quando viene a contatto con un ambiente fisiologico, essa si lega selettivamente a quella superficie e a quel punto si ha una in cui si utilla la fibronectina già presente in vivo. Attenzione questi oggetti sono fatti non per rilegare molecole simili ma proprio per discernere tra molecole simili e molecole uguali, cioè se fatto correttamente lega solo la molecola template, distingue una molecola anche molto simile, primi esperimenti storici sono di differenziamento tra fillina e caffeina che di molecole abbastanza grossi e differiscono per un metile. 22 Masotti/Romano 23 Bionanotecnologie 27/04/2022 Precisazioni esercitazione precedente: Quello che si doveva fare era valutare la variazione di peso percentuale e di pH. Per ogni poliuretano erano disponibili 3 campioni diversi, di cui calcolare la differenza in peso per ogni campione, poi farne media e deviazione standard per ogni poliuretano. Non erano state date indicazioni su come fare i grafici, un’opzione poteva essere di fare un grafico per la degradazione idrolitica e uno per la degradazione enzimatica tramite istogramma. I grafici per media e deviazione standard devono essere messi insieme (unico grafico) perché sono informazioni che vanno fornite insieme per avere un’idea generale dei dati importati. La stessa cosa viene fatta cosa per il pH: per ogni poliuretano è stato riportato il valore medio dei pH nel tempo. OSSERVAZIONE: Per il poliuretano M3 la degradazione enzimatica a 21 giorni non era stata misurato, quindi il valore corrispondente a 21 giorni non deve essere inserito (ERRORE INSERIRE ZERO COME VALORE). Tecniche di micro e nanofabbricazione: Saranno trattate le seguenti classi di tecniche: • • • • Tecniche litografiche; Tecniche di prossimità; Tecniche bottom-up; Elettrospinning e elettrospray. Ci sono due approcci principali nelle tecniche di biofabbricazione: top-down e bottom-up. Nel primo approccio si parte da un materiale bulk e si ottengono le micro e nanostrutture “scolpendo” il materiale. Per fare un esempio alla macroscala, un processo di lavorazione assimilabile al top-down è la fresatura. Nell’approccio bottom-up, invece, si parte da blocchi che vengono assemblati per ottenere il pezzo desiderato (si pensi ai mattoni che vengono assemblati per costruire una casa). Un esempio di approccio top-down è dato dalle tecniche litografiche, mentre come esempi di bottom-up si hanno la compattazione di nanopolveri, deposizione chimica o fisica di materiali nanostrutturati (ad esempio la modifica superficiale dei materiali) o l’assemblaggio di elementi nanometrici tramite manipolazione atomica. Masotti/Romano 23 Bionanotecnologie 27/04/2022 Tecnologie top-down: tecniche litografiche: Queste tecniche prevedono il disegno di un pattern specifico su di un substrato. Le tecniche litografiche hanno una metodologia comune, tra tecniche diverse cambiano dei parametri in base ai quali vengono classificate in: • • • • • Litografia tradizionale – fotolitografia (UV); Litografia a raggi x; Litografia soft; Focused ion beam (FIB); Bulk micromachining. Per definire le performance delle tecniche litografiche si guardano 3 aspetti: • • • Risoluzione: la minima caratteristica che può essere trasportata/disegnata sul substrato con precisione; Registrazione: le tecniche litografiche si prestano anche per disegni e pattern complicati, quindi è necessario registrare accuratamente i pattern per poterli replicare fedelmente: Volume di produzione: è il numero di dispositivi che possono essere realizzati ogni ora. Si può prendere come riferimento o il numero di pezzi o l’area che può essere disegnata per ora. Sull’asse delle x del grafico in figura vediamo il volume di produzione, in micrometri quadri orari, mentre sull’asse delle y la risoluzione in nm. Tendenzialmente si ha una proporzione tra queste due caratteristiche: per avere volumi di produzione maggiori bisogna avere una risoluzione inferiore e viceversa. La caratteristica più importante viene valutata caso per caso, è necessario trovare un buon compromesso in base a quanti pezzi devono essere creati, la loro funzione eccetera. Le tecniche litografiche sono definite come quelle tecniche che permettono di trasferire un disegno preciso (in questo caso micro o nanometrico) su un substrato polimerico che prende il nome di resist; il disegno viene trasferito al resist tramite l’utilizzo di una maschera. Nel corso verrà posta particolare attenzione ai vari processi, cioè ai metodi di produzione e ai parametri da considerare. Inizialmente queste tecniche sono nate per la produzione dei circuiti integrati e sono state poi trasportate anche alla produzione dei dispositivi biomedicali. Masotti/Romano 23 Bionanotecnologie 27/04/2022 Gli elementi chiave del processo litografico sono: • • • • Substrato: solitamente in silicio; Resist: il substrato su cui si vuole andare a disegnare il pattern; Maschera: riporta la geometria che si vuole ottenere. Essa è costituita da un pattern con aree assorbenti verso la radiazione utilizzata, proteggendo quindi il resist in determinate aree, e altre aree invece che lasciano passare le radiazioni. La radiazione quindi colpisce il resist in funzione della morfologia della maschera. Radiazioni: determinano il tipo di litografia, la più classica utilizza le radiazioni UV (“fotolitografia”). Vanno ad alterare il substrato tramite processi fisici o chimici. Esistono due tipi di resist: positivi e negativi. Nel caso di resist positivo essi aumentano la loro solubilità dopo l’irraggiamento (“il resist rammollisce”), mentre i resist negativi vengono induriti dalla radiazione (polimerizzazione del resist nelle zone irraggiate). Il resist è un polimero fotosensibile (sensibile alla radiazione) solubilizzato in un solvente. In alcuni casi viene aggiunta una molecola sensibilizzante, cioè un fotoiniziatore che serve ad aumentare la sensibilità del resist alla radiazione. Schema generale della litografia: Nella slide sono illustrati i punti principali del processo: si ha il wafer di silicio (substrato) su cui viene solitamente applicato prima uno strato di ossido, applicando poi il resist (polimero sensibile alle radiazioni). Lo spessore del resist può variare sia in base alla tecnica che si utilizza per depositarlo, sia in funzione deIla realizzazione finale desiderata (si va da qualche um a qualche 100aia di um in tecniche particolari). Il substrato va poi incontro al soft-baking, un processo termico “soft” che serve ad eliminare il solvente residuo del resist. Una volta deposistato il resist si applica la maschera e, successivamente, la radiazione (UV). In questo caso il resist è positivo, viene cioè “sciolto” dalla radiazione e rammollisce. Le parti irraggiate vengono poi rimosse e il resist è il positivo della maschera, cioè ha la stessa forma delle parti assorbenti. Il wafer va poi incontro ad Masotti/Romano 23 Bionanotecnologie 27/04/2022 ulteriore puliza e trattamento termico (hard-baking), che serve ad eliminare il solvente assorbito dalla parte “forte” del resist e per migliorare l’adesione del resist sul substrato. A questo punto si possono fare ulteriori modifiche, come aggiungere (ad esempio aggiungere un materiale metallico) o rimuovere materiale. Tutte le lavorazioni fatte da questo punto del processo in poi sono efficaci solo sulle zone del substrato non protette dal resist. Vediamo ora in dettaglio cosa implicano tutti i passaggi. Pulizia del wafer: Le varie litografie vengono effettuate in camere bianche (o camere pulite). Sono stanze con atmosfera controllata, in particolare: temperatura, pressione, umidità, vibrazioni e illuminazione controllata. Si considera anche la quantità di polveri presenti all’interno, parametro che definisce anche la classe delle camere bianche. Perche bisogna pulire i wafer? Per togliere i residui di solventi, macchie, residui organici e polveri (polveri “normali” o di metalli). È un passaggio fondamentale perchè le impurezze riducono l’adesione tra resist e substrato, producono inclusioni nello strato di ossido e quindi possono introdurre difetti di forma e ridurre la qualità del prodotto finale. La pulizia può essere di due tipi: dry cleaning o wet cleaning (prevede l’utilizzo di liquidi). Per quanto tiguarda il wet cleaning, i liquidi possono essere più o meno aggressive, solitamente sono tossiche. Nel dry cleaning invece rientrano i processi che utilizzano gas, plasmi (ossigeno o argon) o trattamenti termici o meccanici. I processi di wet cleaning sono i più utilizzati, ma hanno alcuni problemi: in primis la tossicità delle soluzioni e del loro smaltimento. La tabella riassume alcune caratteristiche delle due tipologie. Il wet cleaning è facilmente scalabile a livello industriale, facilmente ripetibile. I processi dry sono invece meno scalabili a livello industriale, le dimensioni devono restare all’interno di un certo range perché il plasma sia efficace, ma sono più green in quanto non utilizzano solventi tossici. Sono migliori sulla piccola scala, come la realizzazione di pochi pezzi. Alcuni esempi di soluzioni commerciali per le pulizie: Masotti/Romano 23 Bionanotecnologie 27/04/2022 RCA 1: è composta da ammoniaca al 25% e acqua in rapporto 1:5. Si fa scaldare fino ad ebollizione e si aggiunge una parte di perossido di idrogeno (acqua ossigenata) e si immerge il wafer per 10 minuti. Questo processo è utilizzato per la rimozione delle tracce organiche. RCA 2: acido cloridrico e acqua in rapporto 1:6. Anche in questo caso si porta ad ebollizione e si aggiunge perossido di idrogeno, per poi immergere il wafer per 10 minuti. È utilizzata per rimuovere ioni metallici. Entrambe le soluzioni lasciano sul wafer un sottile strato di ossido, quindi non bisogna fare un trattamento aggiuntivo per ottenere lo strato di ossidi di cui si è parlato prima. Nel caso in cui, invece, lo strato di ossido non fosse presente, prima del prossimo step bisogna andare a formarlo con un trattamento termico in flusso di ossigeno con temperature elevate. Deposizione del resist: I resist sono sostanze sensibili alla radiazione utilizzata, disciolti in opportuni solventi. Possiamo avere i resist negativi o positivi. Quando si sviluppa un resist negativo si indurisce e viene mantenuta la parte irraggiata dalla radiazione. Si avrà quindi il negativo rispetto alle parti scure (assorbenti) della maschera. I resist positivi, invece, sono stabili fino a che non vengono irraggiati dalla radiazione che rompe i legami tra catene del polimero e lo rammolisce. La parte irraggiata verrà poi rimossa in fase di sviluppo. Tutti i resist sono comunque soluzioni polimeriche e devono essere depositate sul substrato sotto forma di film. Il film deve essere uniforme e chimicamente isotropo. Esistono numerose tecniche per la deposizione di questi film: quelle che saranno viste ora sono adatte a qualunque resina per qualunque litografia, o in generale quando si parla di deporre un film sottile su di un substrato. SPIN COATING: Questa tecnica utilizza uno strumento chiamato spin coater, che prevede un supporto su cui viene il substrato da rivestire: per ancorare il wafer al supporto si utilizza il vuoto. Si inserisce sul wafer un determinato volume di resist, poi si mette in rotazione il supporto a determinate velocità: prima a 500 rpm, per spargere il resist su tutto il wafer, poi la velocità di rotazione aumento fino a 15001600 rpm per un tempo variabile (da qualche secondo a qualche minuto). Questa rotazione più veloce permette di avere un film sottile aderente al wafer. Si fa poi evaporare il solvente. I parametri che determinano lo spessore del film sono indicati in figura. NOTA: nella soluzione ci possono essere diverse sostanze, quindi non si parla di concentrazione ma di percentuale di materiale solido. Con questa si ottengono film anche molto sottili, con spessore circa di 1-2 micron. Altri parametri che influenzano lo spessore del resist sono la quantità di resist che viene depositato, il tipo di Masotti/Romano 23 Bionanotecnologie 27/04/2022 solvente (si comportano in modo diverso anche a parità di polimero) e il tempo di rotazione. Se il volume iniziale che viene deposto è troppo grande si accentua uno dei difetti di questa tecnica, i difetti di bordo: la distribuzione del resist non è omogenea, ma guardando in sezione si vede un profilo più alto vicino ai bordi causato dall’accumulo di materiale. Per risolvere questo problema sono poi necessarie lavorazione successive. Se invece il materiale deposto è troppo poco ci saranno delle zone non rivestite. Questa tecnica è molto utilizzata nei laboratori di ricerca, anche piccoli, perché semplice e veloce, ma ha anche un altro problema: si spreca molto materiale, che costa e va poi smaltito. i materiali tossici hanno anche specifiche condizioni di stoccaggio, cosa che può risultare problematica soprattutto in scala industriale. SPRAY COATING: Il substrato viene messo sotto un getto spray; il resist viene spruzzato da un ugello, che crea particelle di resist di dimensioni micrometriche: il resist viene portato ad un ugello ad ultrasuoni che permette di produrre delle droplet (particelle) di resist che vengono deposte sul substrato tramite pressione. Per evitare l’effetto di overspray (zone con più particelle rispetto ad altre) il getto deve essere posizionato ad una distanza di 5 cm. Rispetto allo spin coating permette di otteneer rivestimenti più omogenei, anche grazie alla possibilità di movimento relativo tra wafer e ugello. Non si hanno effetti di bordo (praticamente non viene sprecato materiale) e si hanno meno stress residui, che possono portare a difetti nei passaggi successivi. I rivestimenti però hanno dimensione intorno ai 20 micron (molto più spessi rispetto allo spin coating). Esiste anche una variante chiamata electro spray coating, che funziona nello stesso modo ma prevede l’applicazione di una tensione tra substrato e ugello che dà origine a particelle più piccole con meno propensione ad aggregarsi perché sono cariche e si respingono: si ottengono rivestimenti con meno difetti e più uniformi. Con lo spray coating si possono rivestire wafer non piani e anche entrambi gli strati del wafer, cose non possibili con lo spin coating. Masotti/Romano 23 Bionanotecnologie 27/04/2022 MENISCUS COATING: Questa tecnica sfrutta la formazione di un menisco che si verifica quando l’adesione del liquido al substrato è maggiore rispetto alla forza di coesione del liquido stesso. Si ha un reservoir del fotoresist, che tramite una pompa viene fatto passare attraverso una penna dove è presente un applicatore tubolare poroso, con pori del diametro di dieci micrometri. All’interno del canale centrale è mantenuto un flusso laminare. Il dispenser viene messo vicino al substrato fino a che si forma il menisco tra il substrato e il liquido che esce dal dispenser. Si imposta una determinata velocità e si deposita il resist sul substrato. Vantaggi: questi sistemi solitamente prevedono un sistema di ricircolo del resist, che quindi rende la tecnica più “green”. Si possono rivestire grandi aree, a differenza dei due sistemi precedenti, e non si presentano difetti di bordo. I parametri di processo che vanno ad influenzare l’uniformità e lo spessore del coating sono: • • • • La distanza tra substrato e la testa del tubo; La velocità del tubo; La concetrazione della soluzione; La velocità di evaporazione del solvente. Svantaggi: è possibile che l’adesione tra resist e substrato non sia buona. ELECTRODEPOSITION: Questa tecnica permette di rivestire totalmente il wafer e si possono utilizzare wafer di forme complesse, perché il substrato viene immerso in una soluzione che contiene particelle cariche di fotoresist e, se necessario, di fotoiniziatore. Le micelle hanno dimensione tra i 50 e 20 nanometri e vengono mantenute in sospensione tramite repulsione elettrostatica. Viene applicata una tensione e le particelle si muovono verso il substrato di carica opposta. Il punto cruciale di questo processo è che il substrato sia carico: quando le particelle gli si avvicinano si ha una destabilizzazione a contatto del substrato (di Masotti/Romano 23 Bionanotecnologie 27/04/2022 carica opposta), si fondono tra loro e rivestono il substrato. Questo processo, però, è autolimitante:infatti più particelle si legano al substrato, più tenderanno ad annullarne la carica. Si possono ottenere rivestimenti di spessore tra i 5 e i 10 micrometri. La tensione applicata e la temperatura del processo determinano lo spessore del resist. Costabile/Cascone 24 BIONANOTECNOLOGIE (Carmagnola) 28/04/2022 Litografia Tradizionale Riassunto lezione precedente Nella lezione precedente sono state introdotte le tecniche litografiche. Ci sono alcuni step che sono comuni alle varie tecniche litografiche, quello che cambia riguarda le radiazioni che si utilizzano per irraggiare il resist e di conseguenza anche il tipo di resist. Si parte da un substrato di silicio che viene pulito, si depone il resist, si fa un trattamento termico per stabilizzare il rivestimento appena fatto e a questo punto, utilizzando la maschera (ovvero il sistema che permette di andare a irraggiare selettivamente alcune zone del resist rispetto ad altre), si irraggia il resist. Visto che esistono poi diversi tipi di resist, in questo caso l'irraggiamento causa un indebolimento del resist che, nella fase successiva di sviluppo, verrà poi rimosso e quello che rimane sarà solo il resist che non è stato irraggiato. A questo punto il substrato è protetto dal resist secondo una determinata geometria dettata dalla geometria della maschera. A questo punto si ha il substrato che è pronto per essere processato: i metodi di processo possono essere o di asportazione di materiale o di aggiunta di materiale. Queste sono le varie fasi della litografia. Si sono iniziati a vedere poi anche i vari passaggi: la pulizia, come avviene, come si lavora in camera pulita e anche varie tecniche per andare a depositare il resist sul substrato. Queste tecniche sono tutte utilizzate non solo in litografia ma tutte le volte che è necessario andare a depositare un sottile strato polimerico su un substrato. Esse differiscono in funzione dello spessore del resist che si vuole ottenere e dal tipo di substrato. Ce ne sono alcune più semplici, altre più complesse, alcune scalabili industrialmente e altre no. Dip Coating La tecnica del Deep Coating è una tecnica semplicissima in quanto prevede di immergere il substrato nella soluzione del resist. Il substrato viene aggraffato attraverso un sistema di afferraggi e viene movimentato lungo l'asse Z per essere immerso e poi tolto dalla soluzione con una velocità costante. I parametri che influenzano la deposizione del resist con questa tecnica sono la viscosità e la concentrazione della soluzione (detti parametri di soluzione del resist), mentre dal punto di vista del processo vero e proprio sono la velocità con cui il resist viene immerso e prelevato dalla soluzione (parametri di processo). Con questa tecnica si aggiungono degli spessori di 8-10 μm. I vantaggi riguardano il fatto che si possono rivestire substrati di ogni forma e dimensione. Questo avviene tutte le volte in cui i rivestimenti avvengono per immersione perché il substrato viene completamente immerso. Inoltre, si ottiene il rivestimento da entrambe le facce del substrato con una sola fase di processo. Gli svantaggi sono dovuti al fatto che è un processo poco controllabile; si possono ottenere cotti non uniformi sulla superficie e con spessori non facilmente controllabili. Essendo una soluzione per immersione, si hanno poi tutti i problemi di scarto di materiale e quindi smaltimento del materiale. Anche in questo caso, si ha abbastanza perdita di materiale perché poi l'immersione si potrà fare fino a un certo punto fino a che poi la soluzione inizierà a sporcarsi e dovrà essere comunque cambiata. Di contro, però, è una delle tecniche più semplici in assoluto che si possono fare in qualunque posto. 1 Costabile/Cascone 24 BIONANOTECNOLOGIE (Carmagnola) 28/04/2022 Roller Coating È una delle tecniche maggiormente implementate a livello industriale perché è implementabile in sistemi di automazione. Questa tecnica consente di rivestire i substrati molto sottili. Il rivestimento può avvenire su un solo lato o su entrambi i lati del substrato. Utilizza una serie di roller di gomma. Si ha il roller di supporto, che è quello che permette di far muovere il substrato, poi si ha il doctor roller e l'application roller. La soluzione viene fornita tra l'application roller e il doctor roller e dall'application roller, attraverso la pressione sul substrato, viene depositata sul substrato. Permette di ottenere spessori minimi di 5 μm ed è implementabile a livello e industriale. I parametri che influenzano le caratteristiche del film di polimero depositato sono la pressione tra il doctor roller e l'application roller, la pressione tra il supporto e l'application roller e i parametri della soluzione (cioè la concentrazione della soluzione del resist che si utilizza). Quindi in questo caso si ha una tecnica particolarmente indicata quando si ha come substrato da rivestire dei film sottili. Curtain Coating Questa tecnica viene anche detta Coating a tenda. In questo caso, si ha il reservoir del resist che viene fatto passare, attraverso l'applicazione di una determinata pressione, su una fessura→ quello che si ottiene è una deposizione a tenda del polimero (tipo cascata). Il substrato viene messo in movimento e fatto passare attraverso il materiale del resist. Questa tecnica permette di rivestire solo un lato del substrato. La distanza tra il substrato e il reservoir del resist è abbastanza alta; quindi, nel processo si ha l'evaporazione di una elevata quantità di solvente che deve essere in qualche modo settata in modo corretto, al fine di avere una deposizione omogenea del rivestimento→ se evapora troppo velocemente e quindi quello che arriva sul substrato ha troppo poco solvente, si avranno dei rivestimenti poco omogenei e poco adesi al substrato. Permette di ottenere spessori di circa 25-60 μm. I parametri da tenere in considerazione per avere un buon rivestimento sono la viscosità della soluzione, la velocità del substrato e la velocità della pompa che permette la fuoriuscita del resist. Extrusion Coating L'ultima tecnica, la tecnica dell'estrusione, è la tecnica forse più intuitiva se si pensa di voler inserire un polimero su substrato. Si ha il resist che viene passato nella testa di estrusione che termina con un ugello di diverse dimensioni, con un diametro che può variare. Viene posizionato molto vicino al substrato che viene messo in movimento. 2 Costabile/Cascone 24 BIONANOTECNOLOGIE (Carmagnola) 28/04/2022 Il resist fuoriesce dalla testa di deposizione attraverso sistemi di estrusione pneumatici o meccanici e quindi attraverso un sistema di viti. Ci sono sistemi più o meno precisi. Anche questo sistema è integrabile in sistemi di produzione in serie e automatizzati. Permette di rivestire substrati di grandi dimensioni e permette di ottenere spessori in un range molto ampio→ si ottengono film molto sottili, da 1 μm fino a 100-150 μm. L’unico svantaggio è che può presentare dei difetti laterali e cioè, se si va sul profilo di deposizione, si hanno i vari profili di deposizione uno accanto all'altro e quindi si potrebbero avere dei difetti di questo genere. Quindi il coating potrebbe essere non omogeneamente distribuito sulla superficie. Anche in questo caso viene utilizzato per depositare su un solo lato. Di tutti queste tecniche litografiche si è vista una panoramica e quello che bisogna ricordare riguarda le caratteristiche principali: ad esempio, il tipo di substrato che si può rivestire, se si può implementare a livello industriale o se sono magari più tipicamente utilizzate per rivestire piccole quantità di materiale a livello di laboratorio, prototipi e ricerca, se permettono di rivestire un solo strato o meno, ecc. Dopo aver visto le varie tecniche, adesso si passa ai passaggi successivi. Soft Baking Dopo la deposizione del resist, il passaggio successivo è quello di trattarlo termicamente per stabilizzarlo. Il trattamento che si effettua al resist dopo la deposizione è chiamato Soft Baking ed è un trattamento termico abbastanza leggero. Si fa questo trattamento termico principalmente per tre motivi: →sicuramente per eliminare il solvente lesivo. Dopo la deposizione del resist, che è una soluzione polimerica (polimero disciolto in un solvente), la maggior parte del solvente evapora e rimane intrappolato circa un 15% di solvente. Questo trattamento serve per eliminare tutto il solvente: ci si deve aspettare anche una riduzione dello spessore, dopo il trattamento di soft baking, di circa il 10-15%; →serve per eliminare eventuali tensioni residue date al resist durante la fase di processo. Ci sono alcuni processi che forniscono le tensioni residue maggiori rispetto ad altre. In questo modo, con questo trattamento si annullano queste tensioni; →serve inoltre per aumentare l'adesione tra substrato e resit. Alcune delle tecniche che si sono viste, tra cui quella del menisco e quella del Dip coating, in realtà hanno come svantaggio quello di non garantire una perfetta adesione del film polimerico al substrato. Con il soft baking si riesce anche in questo caso a migliorare l'adesione tra resist e substrato. Per effettuare il soft baking si può fare un trattamento termico a una temperatura compresa tra i 90° e i 100° per 20 minuti, oppure in forno, oppure a 75-85 ° per 1-3 minuti sottovuoto su piastra scaldata. Questi sono degli esempi di trattamento di soft baking, ma ce ne possono essere anche altri che saranno in funzione del tipo di resist che si è andato a depositare e dello spessore che il resist ha rispetto al substrato. Bisogna fare attenzione a non fare un trattamento termico troppo aggressivo, perché, soprattutto nel caso della litografia tradizionale (la fotolitografia che utilizza come radiazione i raggi UV), molto spesso si ha, oltre al polimero di cui è formato il resist, un materiale fotosensibile che serve ad innescare la reazione dei raggi UV con il materiale → se si fa un trattamento troppo elevato o troppo aggressivo si rischia dunque di danneggiare in parte l'elemento fotosensibile e quindi di 3 Costabile/Cascone 24 BIONANOTECNOLOGIE (Carmagnola) 28/04/2022 ridurre la sensibilità che il resist ha verso la radiazione, quindi si perde in risoluzione e in qualità del prodotto finale. Quando si utilizza un forno a convezione (tipo il forno da cucina), in cui si imposta la temperatura e si mette il campione e il materiale da trattare senza altre aggiunte, bisogna fare attenzione al fatto che, se la temperatura è troppo alta, evapora il primo strato di solvente del resist che funge da coperta impermeabile al solvente, che è presente negli strati più profondi. Quindi, non si riesce a fare evaporare completamente tutto il solvente. Per evitare che si formi questa crosta di resist che blocca la completa evaporazione del solvente, si può fare un trattamento a forno, però, a temperature più basse e magari per tempi più lunghi, oppure si può usare il riscaldamento su una piastra: in questo modo il calore arriva dal basso e si evita la produzione di questo strato di polimero sulla superficie che evita l'evaporazione del solvente. Altro metodo che si può utilizzare per evitare questo inconveniente è quello di utilizzare delle stufe a vuoto: in questo caso il vuoto aiuta la volatilità del gas e quindi il solvente evapora prima che si formi effettivamente questo strato. Questi sono gli unici accorgimenti che bisogna tenere a mente quando si pensa al passaggio di soft banking. Esposizione Una volta effettuato il trattamento termico sul resist, quest’ultimo è pronto per essere irraggiato. Nella fotolitografia tradizionale la radiazione è la radiazione UV visibile. La radiazione avviene una volta che tra la radiazione e il resist è stata sovrapposta la maschera che, come già visto, presenta delle parti trasparenti alla radiazione e delle parti assorbenti. La radiazione andrà dunque ad irraggiare il campione solo in determinate zone. La maschera può essere messa a contatto o in prossimità, quindi molto vicina al resist, o può essere proiettata sul resist, la maschera in questo caso è più lontana e viene proiettata attraverso un sistema di lenti sul resist. Si possono usare diverse radiazioni UV, come l’UV estremo che è a lunghezze d'onda più corte tra i 10 e i 70 nm, l’UV profondo tra i 150 e 300 nm e l’UV vicino tra i 350 e 500 nm. Le lunghezze d'onda più corte hanno una luminosità inferiore, quindi, è spesso richiesto o un resist più sensibile o un sistema di lenti che amplifichi il segnale. Come si seleziona la lunghezza d’onda? La più piccola caratteristica che può essere impressa sul resist è circa uguale alla lunghezza d'onda della radiazione utilizzata. La lunghezza d’onda, quindi, determina la sensibilità→ più la lunghezza d’onda è piccola, più si riuscirà ad imprimere una caratteristica più piccola sul resist e quindi si migliora la risoluzione del disegno. Quindi, in funzione del tipo di pattern geometrico e delle dimensioni del pattern, si possono selezionare diverse lunghezze d'onda. Per irraggiare si può usare una luce semplice, come una lampada UV semplicissima, oppure si possono utilizzare dei sistemi di lenti che vanno a convogliare la radiazione sul campione. Parlando di radiazioni, si introduce anche il concetto di dose che è data dal prodotto dell’intensità della luce incidente per il tempo di esposizione [Joule al centimetro quadrato]. Oltra alla risoluzione e al volume di produzione, una delle caratteristiche che si va a considerare quando si parla di performance di un sistema di una litografia è la registrazione, ovvero come accuratamente potevano essere posizionate le maschere sul campione. Questo perché, per realizzare geometrie complesse e anche tridimensionali (sviluppate anche lungo l'asse Z), è 4 Costabile/Cascone 24 BIONANOTECNOLOGIE (Carmagnola) 28/04/2022 possibile effettuare più processi litografici uno di seguito all'altro utilizzando maschere con pattern diversi. Le maschere devono essere allineate il più precisamente possibile sul resist, e quindi sul substrato, al fine di ottenere una riproduzione il più fedele possibile del disegno del pattern finale. Le maschere sono quegli stampi che servono per trasferire il pattern sul wafer. Per fare il pattern sul wafer, in realtà, imprimono per prima cosa la radiazione sul resist. Le maschere sono costituite da zone trasparenti e zone assorbenti. Nel caso della fotolitografia, quindi la litografia che utilizza i raggi UV visibili, le zone trasparenti sono normalmente o in silicio o in quarzo, mentre le regioni assorbenti solitamente sono costituite da un layer di cromo di qualche centinaio di Armstrong (circa 800 Armstrong): la parte trasparente permette il passaggio della radiazione che andrà a irraggiare la parte sottostante di resist, le parti assorbenti, invece, impediscono la radiazione di raggiungere il resist. Anche nel caso di maschere si può parlare di maschera negativa e maschera positiva. →Nel caso di maschera negativa, o anche chiamata Clear field mask, il pattern è la regione della maschera assorbente. Quindi la geometria che si vuole andare ad incidere è in realtà la parte nera, che è la parte assorbente (quella costituita dal layer di cromo), mentre il resto della maschera è trasparente. →Nel caso di maschera positiva, invece, anche chiamata Dark field mask, il pattern che si vuole andare a trasferire sul substrato è trasparente, quindi lascia passare la radiazione UV, mentre il resto della maschera è assorbente. Le maschere, a loro volta, vengono realizzate utilizzando le tecniche litografiche e in particolare vengono realizzate utilizzando delle tecniche litografiche che permettono risoluzioni maggiori rispetto alla fotolitografia che si sta vedendo. In particolare, si utilizza la litografia a fascio di elettroni. Questo perché sicuramente la risoluzione della maschera influenza la risoluzione del prodotto finale, tenendo logicamente conto dei limiti della tecnica litografica che si sta utilizzando, e anche perché la maschera è pensata per essere usata ripetutamente. Le maschere non vengono fatte una volta, usate e buttate, ma sono pensate per essere utilizzate per imprimere n dispositivi, n substrati. Quindi, anche se sono prodotte con processi con risoluzione maggiore e quindi sicuramente con costi maggiori, si riesce a compensare questo fatto usandole ripetutamente. Metodi di Esposizione Esistono tre diversi tipi di metodi per utilizzare le maschere, cioè tre diversi tipi di metodi di esposizione. La maschera può essere messa a contatto, ovvero essere posizionata sul resist, può essere messa in prossimità, e in questo caso si ha un piccolo gap tra il resist e la maschera, oppure può essere utilizzata per proiezione. 5 Costabile/Cascone 24 BIONANOTECNOLOGIE (Carmagnola) 28/04/2022 1. Maschera a contatto: si ha la sorgente luminosa e la maschera che viene posizionata direttamente sul resist, la quale permette di avere risoluzioni molto alte. Ha uno svantaggio: l'usura della maschera. Le maschere quando vengono utilizzate a contatto durano meno e questo implica costi maggiori. Non solo si usura la maschera, ma c'è il rischio di andare a causare anche dei difetti sul resist, che possono poi andare a influenzare la qualità del prodotto finale. 2. Per ovviare ai problemi dell’esposizione a contatto, si può passare all’esposizione in prossimità. C’è un piccolo gap: la maschera è messa ad una distanza molto piccola dal resist; è molto vicina al resist e in questo caso si va a compensare il problema dell'usura della maschera, ma si abbassa la risoluzione perché si hanno problemi di diffrazione della luce tra la maschera e il resist. Come si definisce la differenza tra contatto e resist? La maschera a contatto si ha quando il gap tra maschera e il resist è inferiore alla lunghezza d'onda. Per avere l'esposizione in prossimità, bisogna che il gap tra la maschera e il resist sia inferiore a 𝑾∙𝟐 𝝀 (con W che in questo caso è considerata la dimensione geometrica del pattern da riportare e 𝝀 pari alla lunghezza d’onda utilizzata) . 3. L'ultimo tipo di esposizione della maschera è quella per proiezione: si ha la sorgente e la maschera che è messa più distante rispetto al resist e rispetto alla prossimità. Per andare ad imprimere l'immagine della maschera sul resist, si utilizza un sistema ottico→ in realtà la maschera è proiettata sul resist. Anche questo sistema permette di ottenere alte risoluzioni. Nel caso della maschera a contatto o della maschera in prossimità, il rapporto tra immagine della maschera e immagine ottenuta nel resist è di 1:1. Quindi, se si vuole avere una riga di 100 nanometri, sulla maschera dovremmo avere la riga di 100 nm che otterremo anche sul resist. Questo avviene nel caso si progettino e si pensino delle maschere che si devono utilizzare a contatto o in prossimità. Nel caso del metodo di esposizione per proiezione, si possono utilizzare maschere più grandi, perché attraverso il sistema ottico si può proiettare l'immagine riducendo la dimensione. Quindi si possono fare maschere con dimensione di rapporto 1:5 o 1:10. Di nuovo, se si vuole avere una linea di 100 nanometri, si può avere una maschera che ha un filo di 500 nm oppure di 1000 nm. Questo permette di risparmiare sulla produzione delle maschere perché comunque si fanno maschere con dimensioni maggiori. Maschere per litografia a scale di grigio Se si utilizzano le maschere normali, l'informazione che si trasferisce è un'informazione binaria: la zona trasparente (zona che viene irraggiata) può essere considerata con 1, mentre la zona assorbente della maschera (cioè zona sul resist in cui non arriva l'irradiazione) può essere associata allo 0. È possibile, però, in realtà utilizzare delle maschere a toni di grigio che permettono un'esposizione parziale del resist. Lo sviluppo rende solubile il resist in modo proporzionale alla quantità di dose che ha assorbito → nello sviluppo, si andrà a sviluppare una parte del resist in proporzione alla dose di radiazione che ha ottenuto. Le maschere a scala di grigio sono costituite da alcune parti completamente trasparenti, 100% trasparenti che fanno passare il 100% della radiazione, da delle zone che sono 100% assorbenti, 6 Costabile/Cascone 24 BIONANOTECNOLOGIE (Carmagnola) 28/04/2022 che quindi non fanno passare la radiazione, e da alcune zone che sono invece intermedie, che fanno passare una determinata percentuale di radiazione. Le zone di grigio vengono fatte andando a deporre sulla maschera degli spot di materiale assorbente che abbiano una dimensione inferiore alla lunghezza d'onda utilizzata. In questo modo, sono talmente piccoli che non possono essere riportati sul resist perché quest’ultimo ha una lunghezza d'onda tale che non permette di riportare quelle geometrie sul resist, ma comunque assorbono una parte della radiazione e quindi non fanno passare il 100% o non bloccano il 100% della radiazione. Quindi, ad esempio, nella scala di grigio che è riportata in figura, si ha la maschera che è costituita da tre zone diverse: la zona bianca è la zona completamente trasparente alla radiazione; la zona a pallini è la zona che permette di far passare una certa percentuale di radiazione (si ipotizzi un 50%); la parte a righe è invece la parte completamente assorbente e quindi non fa passare la radiazione. Essa viene posta sul resist e si vede come il resist viene irraggiato. La parte a righe è la parte che riceve la radiazione, la parte grigia è la parte che non riceve la radiazione. Sotto la parte bianca il resist riceve tutta la radiazione, sotto la parte a righe della maschera il resist è tutto grigio e quindi non riceve radiazioni, mentre sotto la parte centrale a pois, che è quella a gradiente solo il 50%, solo la prima parte del resist riceve la radiazione mentre la parte sotto no. In fase di sviluppo, in caso di resist negativo, la radiazione fa polimerizzare e indurire il materiale e lo rende meno solubile alla soluzione in sviluppo: viene rimossa la parte della maschera che non è stata esposta, quindi la parte di grigio. Per il resist negativo: la radiazione indebolisce il resist, lo rende più solubile alla soluzione di sviluppo e si elimina, con la fase di sviluppo, la parte a righe, mentre rimane la parte grigia. Si ottiene un profilo più complesso rispetto a quelli che si sono visti finora, che erano o tutto o niente. Nell’immagine si vedono alcuni esempi di strutture che si possono ottenere con la fotolitografia utilizzando maschere a toni di grigio. Sono particolarmente indicate queste maschere per fare dei profili appuntiti. Queste maschere sono molto complesse e per questo si utilizzano tecniche litografiche molto accurate proprio perché, soprattutto nella parte di scala di grigio, bisogna ottenere dei punti assorbenti molto piccoli. Per fare questo, bisogna far sì che il cambiamento delle proprietà fisiche e chimiche del resist sia proporzionale alla quantità di radiazione che lo colpisce. Un gruppo di ricerca ha in realtà realizzato un resist, che è quello di cui sono riportati gli esempi nell’immagine, la cui reazione è dose dipendente. Il resist si chiama di Rohm e Haas, dal nome di chi lo ha inventato, e può essere utilizzato sia per produrre ad esempio strutture utilizzando maschere a scale di grigio, oppure per essere utilizzato sia come resist positivo che come resist negativo (ovvero viene irraggiato normalmente, poi, in funzione dei trattamenti a cui viene sottoposto e soprattutto all'ordine di trattamenti a cui viene sottoposto, si può comportare o come resist positivo o come resist negativo). Quando solitamente si parla di resist positivo e negativo è perchè sono resist diversi, ma in questo caso, questo resist, in funzione del processo di lavorazione a cui è sottoposto, dopo l'irraggiamento si può comportare o come resist positivo o come resiste negativo. 7 Costabile/Cascone 24 BIONANOTECNOLOGIE (Carmagnola) 28/04/2022 Risposta ad una domanda La litografia a fascio di elettroni o a fascio ionico permette di deporre materiale e con risoluzioni molto piccole. Se si hanno pallini di cromo, che è il materiale assorbente nel caso delle maschere per fotolitografia, e la dimensione di questi spot è inferiore alla lunghezza d'onda, questi, essendo inferiori alla risoluzione della tecnica, non vengono riportati sul resist. Il resist non li vede come disegno, però assorbono una parte della radiazione. Quindi, quando la radiazione attraversa, passerà ad esempio solo il 50% (nel caso i pallini ricoprano il 50% dell'area) e quindi la zona sottostante riceverà una quantità di radiazione inferiore rispetto alla zona di maschera completamente trasparente → una minor quantità e si va meno in profondità. Questo è un esempio schematico, un modello, che ha tre parti molto ben definite: 100%, 50% il centrale e 0% di radiazione trasmessa. Si può avere anche un gradiente più graduale, durante la maschera, che permette di ottenere questi profili complessi riportati in figura, ma il concetto è lo stesso. È una tecnica molto interessante che permette di ottenere geometrie molto complesse; tuttavia, lo svantaggio è che effettivamente le maschere a scala di grigio, proprio per come sono fatte, sono molto costose. Tipo di Resist I tipi di resist che si possono trovare sono: il resist positivo o il resist negativo. In generale, la radiazione comporta nel resist un cambiamento fisico-chimico del resist, che porta a un cambiamento della solubilità di quest’ultimo nella successiva soluzione di sviluppo. Si hanno due possibilità. Nella figura è riportato il substrato in silicio in azzurro, in grigio rigato trasversale dovrebbe essere rappresentato lo strato di ossido, mentre il resist è la parte superiore. Quindi, la parte irraggiata del resist è dovuta alla maschera ed è il rettangolino centrale. Se si ha il resist positivo, l'irraggiamento comporta l'attivazione della rottura di alcuni legami del resist e quindi il resist si rammollisce e diventa più solubile nella successiva soluzione di sviluppo → dove è stato irraggiato (dove è presente la griglietta) il resist si rammollisce e viene poi tolto durante la fase di sviluppo, mentre quello non irraggiato rimane lo stesso che si è visto nella deposizione prima. Le soluzioni di sviluppo per il resist positivo solitamente sono delle soluzioni alcaline, ovvero delle soluzioni basiche, e sono soluzioni a base di idrossido di sodio o idrossido di potassio. Questo perché si è visto che il resist è una soluzione polimerica: polimero e solvente; quando si parla di solvente, per i polimeri, solitamente sono solventi organici. Il solvente viene fatto evaporare e si rimane solo con il polimero. Viene poi irraggiato e si rompono le catene. Si possono utilizzare delle soluzioni che non solubilizzano il resist (quindi non devono essere solventi organici, perché, altrimenti, solubilizzerebbero anche il resist rimasto), ma invece solubilizzano il resist che è stato indebolito dall'irraggiamento, e queste sono le soluzioni alcaline. Il resist positivo comporta inoltre una risoluzione maggiore rispetto al resist negativo. Nel caso del resist negativo, con l'irraggiamento UV visibile la radiazione comporta un crosslinking del resist, ovvero la reticolazione del resist → si formano dei legami tra le catene polimeriche del resist che lo rafforzano e quindi lo rendono meno solubile rispetto alla soluzione di sviluppo. Poiché è reso più resistente, come soluzione di sviluppo si possono utilizzare dei solventi organici, che invece solubilizzano il resist classico che non viene modificato dalla radiazione. Quindi, per lo sviluppo dei resist negativo, si andranno ad utilizzare dei solventi organici. 8 Costabile/Cascone 24 BIONANOTECNOLOGIE (Carmagnola) 28/04/2022 Si ottengono risoluzioni leggermente inferiori perché, anche se il solvente organico non solubilizza più il fotoresist reticolato, il resist reticolato rigonfia (swelling) un po’ in presenza di un solvente organico: il solvente organico penetra un po’ all'interno del polimero reticolato, lo fa rigonfiare e ne aumenta la dimensione. Questo fa sì che si perda un po’ di risoluzione proprio a causa dello swelling dovuto ai solventi organici utilizzati nello sviluppo. Sia per il resist positivo che per il resist negativo, esiste un valore di dose (l'intensità di luce incidente per il tempo di esposizione) soglia al di sopra del quale effettivamente si ha il cambiamento di comportamento del resist e quindi si ha l'effetto dell'irraggiamento. Se si espone il resist con una dose inferiore alla dose soglia, non è detto che il cambiamento sia così significativo e quindi si perde anche in questo caso di risoluzione e poi di qualità nel trasportare l'immagine dalla maschera al resist. La dose soglia è quella dose in cui l'effetto della reazione è significativo; quindi, permette di ottenere un cambiamento nel materiale, tale che in fase di sviluppo si riesce a togliere tutto il resist che deve essere tolto, quindi quello irraggiato e non irraggiato in funzione del tipo di resist che si sta selezionando. Tale soglia è sempre da superare in entrambi i processi. Solitamente, nel resist positivo, la dose minima aumenta la solubilità nei solventi alcalini di 10-100 volte e quindi si necessita di un tempo molto inferiore per eliminare la parte irraggiata rispetto a quella non irraggiata: quest’ultima non viene rimossa. Una volta che si ha, sia con il resist positivo che negativo, eliminato nella fase di sviluppo una parte del resist, quello che rimane è il substrato che è protetto dal resist solo in alcune zone, le quali rispecchiano sempre la geometria che si vuole andare poi a trasportare sul substrato. Dopo aver visto come è stato irraggiato, ci si attenzionerà nella parte di sviluppo. Questo step serve per rimuovere una parte del resist che è stato esposto o non esposto; può avvenire in condizioni wet, quindi da bagnato, o può venire a secco, in condizioni asciutte. Lo sviluppo può essere immaginato come un'immersione in una soluzione, quindi è un processo bagnato. Nei processi di sviluppo bagnati, si gioca soprattutto sulla differenza di peso molecolare comportata dalle radiazioni UV oppure, in alcuni casi, dal cambiamento di polarità. Nei processi di sviluppo da bagnati, si può immergere il campione in una soluzione di sviluppo per un determinato tempo, eventualmente aggiungendo agitazione meccanica (agitazione della soluzione) e temperatura, se questo può aiutare la fase, oppure il procedimento, sempre da bagnato, quindi utilizzando sempre una soluzione, può essere attraverso un sistema di spray e in questo caso la soluzione viene spruzzata su tutta l'area del campione. La differenza, anche qui, è che tendenzialmente nelle fasi di sviluppo per immersione, si ha una quantità di soluzione di sviluppo maggiore utilizzata e si hanno sempre i problemi che riguardano una maggior quantità di materiale di scarto da smaltire, il quale è solitamente o solvente organico o soluzione altamente alcalina che quindi devono essere smaltiti nel modo corretto; sono però più semplici perché basta prendere il campione e immergerlo in un contenitore contenente la soluzione, invece con il sistema spray, bisogna avere lo strumento adeguato a spruzzare la soluzione di sviluppo sul campione. RICORDA: per resist positivi si hanno soluzioni alcaline, mentre per resist negativi solventi organici. 9 Costabile/Cascone 24 BIONANOTECNOLOGIE (Carmagnola) 28/04/2022 Si può, però, fare anche lo sviluppo a secco, che avviene solitamente all'interno di un reattore a plasma vuoto in cui si utilizza come gas l'ossigeno, che reagisce con il resist in maniera diversa e quindi asporta una parte di resist che viene reso volatile con l’impatto dell'ossigeno e asportato dal vuoto del sistema e quindi eliminato in questo modo. Una volta realizzato lo sviluppo è possibile, soprattutto nel caso dei resist negativi, che rimanga un sottile strato di resist nella zona rimossa. In questo caso si deve procedere con uno step, il Descumming, che non è altro che un trattamento blando, sempre al plasma e utilizzando sempre l'ossigeno e che quindi permette di rimuovere quel sottile strato di resist che potrebbe essere rimasto dopo lo sviluppo. Si immagini di avere il substrato con il resist rimasto dopo lo sviluppo e nella parte in cui è stato rimosso il resist, in realtà, ce n'è ancora una piccolissima parte, un film sottilissimo, il quale deve essere tolto in questo step perché andrebbe a schermare una parte del substrato e questo viene fatto anche in questo caso, nei sistemi a plasma. Alla fine di tutti questi processi, si fa ancora un trattamento termico, l'ultimo, ed è il trattamento di Postbaking. Solitamente è un trattamento termico un pochino più forte rispetto a quello di softbaking che serve per eliminare il solvente residuo. Quando si parla di solvente residuo, si fa riferimento ad un eventuale solvente assorbito dal resist rimasto durante la fase di sviluppo. Questa cosa è un pochino più accentuata nel caso di resist negativi. Bisogna pensare che il resist serve da protezione al substrato. Questo sarà poi sottoposto ad altri trattamenti, i quali però avranno effetto anche sul resist→ il resist deve essere resistente. Per questo, il trattamento termico aumenta la resistenza del resist e ne migliora quindi la resistenza in funzione degli attacchi chimico-fisici a cui può essere sottoposto nelle fasi successive di trattamento del substrato. Il Postbaking può cambiare in funzione del resist utilizzato. Si effettua solitamente un trattamento termico a 120 ° per 20 minuti. Anche in questo caso, può causare una perdita di spessore del resist, perché appunto va via una parte di solvente, e in questo caso potrebbe anche andare a introdurre delle tensioni residue. Alla fine dell'ultimo passaggio, quindi di questo trattamento termico, si ha il campione pronto: si è riusciti ad andare a proteggere il wafer di silicio con uno strato di resist solo in determinate zone. Al substrato, poi, possono essere effettuati due tipi di trattamenti: ci sono i trattamenti di Etching che prevedono l'asportazione di materiale dal substrato, oppure possono esserci processi di Deposizione che comportano invece l'aggiunta di materiale al substrato. Si supponga di avere il substrato con il resist che ha subito il trattamento di Postbaking, quindi si ha il prodotto finito. A questo punto si può decidere o di rimuovere una parte di materiale, facendo un Etching, oppure si può andare ad aggiungere materiale (come metalli, ceramici o altri materiali). I trattamenti hanno efficacia, effettivamente, solo dove non è presente il resist. In alcuni casi, i trattamenti sono selettivi, ovvero effettivamente vengono fatti solo nelle zone in cui non è presente il resist, molto spesso, però, il trattamento è fatto su tutto il campione (il trattamento 10 Costabile/Cascone 24 BIONANOTECNOLOGIE (Carmagnola) 28/04/2022 viene fatto anche su resist, che però poi nell'ultimissima fase viene rimosso e quindi non è importante che il resist venga modificato). Infatti, come si vede nell’immagine, si ha il substrato con il resist: si può quindi deporre materiale o eliminare materiale. Il resist protegge una parte del substrato e quindi la deposizione o l’eliminazione di materiale, in realtà, avviene in fin dei conti solo nelle parti dove non è presente il resist. In realtà, molto spesso, quello che succede è quello che si osserva nello schema più a destra dell’immagine: si ha il substrato con il resist diprotettivo. Se si va a deporre, la deposizione avviene sia sul resist che sul substrato, ma poi nell'ultima fase, detta fase di Stripping e in cui viene tolto il resist, viene tolto sia il resist che il materiale deposto. Quindi quello che si ottiene alla fine, sarà che il materiale è deposto solo nelle zone in cui non era presente il resist. Lo stripping è la rimozione del resist e anche in questo caso può essere da bagnato o da secco. Nel caso di stripping wet, si immerge il campione in soluzioni che rimuovono solo lo strato di resist. Queste soluzioni possono essere o delle soluzioni di acidi forti, come acido solforico, o la soluzione piragna, che è un mix di acido solforico e perossido di idrogeno (quindi acqua ossigenata, che in realtà è una soluzione molto pericolosa) o si possono utilizzare ancora solventi organici o alcune soluzioni che sono state pensate apposta in funzione del resist utilizzato. Tra le soluzioni che si possono utilizzare, c'è anche una delle due soluzioni che si è vista per la pulizia del wafer, che è la RCA1, ed è la soluzione che permetteva di andare a eliminare residui organici e quindi anche il resist. Se invece si pensa ai processi di stripping da asciutto, anche in questo caso la tecnica maggiormente utilizzata è il plasma a vuoto con all'interno gas ossigeno. Gli atomi di ossigeno attivi convertono il resist organico in specie volatili che poi vengono asportate dal vuoto che si genera nella camera in cui viene fatto il plasma. I vantaggi e svantaggi delle tecniche asciutte e bagnate sono sempre gli stessi. Gli svantaggi delle tecniche bagnate riguardano sempre la rimozione e lo smaltimento dei rifiuti, lo stoccaggio dei solventi e nel caso dei processi al plasma è sempre un po’ l'implementazione a livello industriale che invece è più facile quando si pensa di immergere un substrato in una soluzione. 11 Comunale/Galbo Lezione 25 Bionanotecnologie (Boffito) 28/04/2022 LITOGRAFIA TRADIZIONALE Video: https://www.youtube.com/watch?v=B0g1_rr-ApI : An Introduction to Microfabrication via Photolithography The increased need for portable devices with extremely small sample volumes has driven the miniaturization of devices called BioMEMS. BioMEMS are produced via microfabrication a process of fabrication micro scale structures using semiconductor technology. A micro fabrication technique called photolithography is often used to patterns complex patterns onto a substrate using light. This video will introduce the process of photolithography demonstrate the technique in the laboratory and provide insight into some applications where photo lithography is used. Un'introduzione alla microfabbricazione tramite fotolitografia La maggiore necessità di dispositivi portatili con volumi di campione estremamente ridotti ha portato alla miniaturizzazione di dispositivi chiamati BioMEMS. I BioMEMS sono prodotti tramite micro fabbricazione, un processo di fabbricazione di strutture su micro scala utilizzando la tecnologia dei semiconduttori. Una tecnica di micro fabbricazione chiamata fotolitografia viene spesso utilizzata per modellare modelli complessi su un substrato utilizzando la luce. Questo video introdurrà il processo di fotolitografia, dimostrerà la tecnica in laboratorio e fornirà informazioni su alcune applicazioni in cui viene utilizzata la fotolitografia. Principles of Photolithography Semiconductor namely silicon wafers are typically used as the substrate in micro fabrication via photolithography. First, the wafer is cleaned to remove organic contaminants, then a substrate layer is formed on top, for example silicon dioxide is formed using thermal oxidation. To begin photolithography, a layer of a viscous UV reactive substance called “photoresist” is spin coated to a uniform thickness on the substrate. The photo resist coated substrate is then exposed to intense UV light during patterned stencil called a “photomask”. Two types of photoresist exist: first positive resist becomes soluble upon exposure to UV light; in contrast, the exposed regions of negative resist become cross-linked and are insoluble. The soluble part of the photoresist is then removed using the developer solution leaving behind patterned photoresist and exposed substrate regions. The pattern is the etch tin to the exposed silicon dioxide layer a dry etching technique called “Reactive Ion Etching” uses chemically reactive plasma to remove material deposited on the wafer. Alternatively, a wet etch such as hydrofluoric acid can be used to etch silicon dioxide. The etching technique will vary depending on the material being processed. Finally, the remaining photoresist is removed leaving a precisely patterned silicon microstructure. This structure con then be used directly or as a mold for the fabrication of electronic and microfluidic devices. Now that the basic procedure of photolithography has been explained, let’s take a look at how to perform the procedure in a cleanroom environment. Principi di fotolitografia I semiconduttori, in particolare i wafer di silicio (SIlicon Wafer), vengono generalmente utilizzati come substrato nella microfabbricazione tramite la fotolitografia. 1 Comunale/Galbo Lezione 25 Bionanotecnologie (Boffito) 28/04/2022 Innanzitutto, il wafer viene pulito per rimuovere i contaminanti organici, quindi sulla parte superiore viene formato uno strato di substrato, ad esempio si forma biossido di silicio utilizzando l'ossidazione termica. Per iniziare la fotolitografia, uno strato di una sostanza viscosa reattiva ai raggi UV chiamata “photoresist” viene rivestito per rotazione con uno spessore uniforme sul substrato. Il substrato rivestito di fotoresist viene quindi esposto a un'intensa luce UV durante lo stencil modellato chiamato “photomask”. Esistono due tipi di fotoresist: il primo resist positivo diventa solubile dopo l'esposizione alla luce UV; al contrario, le regioni esposte del resist negativo diventano reticolate e sono insolubili. La parte solubile del fotoresist viene quindi rimossa utilizzando la soluzione di sviluppo lasciando dietro di sé regioni di substrato modellate e esposte. Il modello è la latta di incisione sullo strato di biossido di silicio esposto, una tecnica di incisione a secco chiamata Reactive Ion Etching, che utilizza plasma chimicamente reattivo per rimuovere il materiale depositato sul wafer. 2 Comunale/Galbo Lezione 25 Bionanotecnologie (Boffito) 28/04/2022 In alternativa, per attaccare il biossido di silicio può essere utilizzato un attacco a umido come l'acido fluoridrico. La tecnica di incisione varia a seconda del materiale in lavorazione. Infine, il fotoresist rimanente viene rimosso lasciando una microstruttura di silicio modellata con precisione. Questa struttura può quindi essere utilizzata direttamente o come stampo per la fabbricazione di dispositivi elettronici e microfluidici. Ora che è stata spiegata la procedura di base della fotolitografia, diamo un'occhiata a come eseguire la procedura in un ambiente in camera bianca. Photolithography with Positive Resist First the photo mask that will be used to create the pattern is designed and ordered from a manufacturer then the photo lithography process is performed in a cleanroom which routinely filters air in order to minimize dust contamination. First, a silicon dioxide is formed on the silicon wafer surface using thermal oxidation once the wafer is oxidized it is placed on a spin coater Chuck. Photoresist is poured into the center of the wafer until it covers most of the wafer surface (orange lighting prevents photoresist crosslinking by ambient UV light). The photoresist is the spin-coating to create an even thin coating (spin-coating speeds are used to control thickness) Next, the coated wafer is soft baked on a hot plate to evaporate any solvent and solidify the photoresist. The wafer is loaded into the mask aligner containing the specific photo mask for the pattern desired. Then, the wafer is exposed to UV light through the photo mask and then hard-baked to set the developed photoresist. The soluble regions of photoresist are removed using the developer solution specific to the type of photoresist used. Finally, the wafer is rinsed and dried leaving the pattern photoresist on the wafer. Fotolitografia con resistenza positiva Per prima cosa viene progettata e ordinata da un produttore la maschera fotografica che verrà utilizzata per creare il pattern, quindi viene eseguito il processo di fotolitografia in una camera bianca che filtra regolarmente l'aria per ridurre al minimo la contaminazione da polvere. In primo luogo, un biossido di silicio viene formato sulla superficie del wafer di silicio mediante ossidazione termica. Una volta che il wafer è ossidato, viene posizionato su un mandrino per la 3 Comunale/Galbo Lezione 25 Bionanotecnologie (Boffito) 28/04/2022 verniciatura a rotazione. Photoresist viene versato al centro del wafer fino a coprire la maggior parte della superficie del wafer (l'illuminazione arancione impedisce la reticolazione del photoresist da parte della luce UV ambientale). Il fotoresist è lo spin-coating per creare un rivestimento sottile e uniforme (le velocità di spincoating sono usate per controllare lo spessore) Successivamente, il wafer rivestito viene cotto su una piastra calda per far evaporare qualsiasi solvente e solidificare il fotoresist. Il wafer viene caricato nell'allineatore maschera contenente la maschera fotografica specifica per il pattern desiderato. Quindi, il wafer viene esposto alla luce UV attraverso la maschera fotografica e quindi cotto per impostare il fotoresist sviluppato. Le regioni solubili del fotoresist vengono rimosse utilizzando la soluzione di sviluppo specifica per il tipo di fotoresist utilizzato. Infine, il wafer viene risciacquato e asciugato lasciando il pattern photoresist sul wafer. Pattern Etching and Cleaning Following photolithography, the pattern is etched into the top layer of silicon dioxide using deep reactive ion etching. After etching, the remaining photoresist is removed by soaking the wafer in an appropriate photoresist remover. The wafer is then rinsed with isopropanol and acetone, and dried under nitrogen. Next, a piranha cleaning solution is prepared to remove excess organic residues. Piranha is a mixture of concentrated sulfuric acid and hydrogen peroxide. This solution must be used in an approved well-ventilated hood with proper training. Piranha is extremely dangerous and can be explosive (Caution: Piranha can be explosive, and must only be handled with proper training!) The wafer is submerged in piranhas for several minutes and then rinsed with water. Finally, the wafer is rinsed with acetone and methanol and dried with nitrogen gas to leave the clean final structure. Incisione e pulizia del modello Dopo la fotolitografia, il modello viene inciso nello strato superiore di biossido di silicio utilizzando un'incisione con ioni reattivi in profondità. Dopo l'attacco, il fotoresist rimanente viene rimosso immergendo il wafer in un appropriato dispositivo di rimozione del fotoresist. Il wafer viene quindi risciacquato con isopropanolo e acetone ed essiccato sotto azoto. Successivamente, viene preparata una soluzione detergente piranha per rimuovere i residui organici in eccesso. Piranha è una miscela di acido solforico concentrato e perossido di idrogeno. Questa soluzione deve essere utilizzata in una cappa approvata e ben ventilata con un'adeguata formazione. Il piranha è estremamente pericoloso e può essere esplosivo (Attenzione: il piranha può essere esplosivo e deve essere maneggiato solo con un addestramento adeguato!) La cialda viene immersa nei piranha per diversi minuti e poi risciacquata con acqua. Infine, il wafer viene risciacquato con acetone e metanolo ed essiccato con azoto gassoso per lasciare la struttura finale pulita. Applications Microscale patterns generated by photolithography are used to create a wide range of BioMEMs devices. 4 Comunale/Galbo Lezione 25 Bionanotecnologie (Boffito) 28/04/2022 Application #1: Gold Micropatterns Photolithofraphy can be used to create metal patterns on a substrate such as a silicon wafer or glass slide; instead of edging away the top layer of the substrate, metal is deposited on top of the photoresist pattern using sputter coating or metal evaporation. In this example, a chromium adhesion layer is coated on a glass slide followed by a gold layer. After deposition, the photoresist is removed to expose the gold patterns; the gold patterns can then be used for the controlled assembly of cells or as electrodes for bio electronics. Application #2: Polymer Micropatterns Photolithography can also be used to create polymer micro patterns; for this a layer of polymer is deposited on top of the silicon wafer. Prior to photolithography like with the silicon dioxide layers on silicon wafers, the polymer pattern exposed by the developed photoresist is etched away. The remaining photoresist is then removed to leave only the patterned polymer. The pattern polymer can be used to induce controlled cell growth on or around the polymer islands. Application #3 Focused-Ion Beam While photolithography is limited to the microscale, nano scale patterns can be fabricated using a focused ion beam or FIB. FIB uses a beam of ions to ablate or deposit materials on a surface in a precise pattern. In this example, pre patterned gold electrodes were functionalized with molybdenum crystals. Then, nano scale platinum bridges were deposited using fib to connect the crystal to the gold electrode. These structures can then be used to improve and further miniaturized bio MEMS devices. You’re just watched Jove’s introduction to microfabrication via photolithography. You should now understand the basic photolithography process, how it is performed in the laboratory and some ways that he technique is used in the fabrication on bio MEMS devices. Applicazioni I modelli in microscala generati dalla fotolitografia vengono utilizzati per creare un'ampia gamma di dispositivi BioMEM. Applicazione #1: micromodelli d'oro La fotolitografia può essere utilizzata per creare motivi metallici su un substrato come un wafer di silicio o un vetrino; invece di rimuovere lo strato superiore del substrato, il metallo viene depositato sopra il modello di fotoresist utilizzando un rivestimento a spruzzo o l'evaporazione del metallo. In questo esempio, uno strato di adesione di cromo è rivestito su un vetrino seguito da uno strato d'oro. Dopo la deposizione, il fotoresist viene rimosso per esporre i motivi dorati; i modelli in oro possono quindi essere utilizzati per l'assemblaggio controllato di celle o come elettrodi per la bioelettronica. 5 Comunale/Galbo Lezione 25 Bionanotecnologie (Boffito) 28/04/2022 Applicazione n. 2: micromodelli polimerici La fotolitografia può essere utilizzata anche per creare micro pattern polimerici; per questo uno strato di polimero viene depositato sopra il wafer di silicio. Prima della fotolitografia, come con gli strati di biossido di silicio su wafer di silicio, il modello polimerico esposto dal fotoresist sviluppato viene inciso via. Il fotoresist rimanente viene quindi rimosso per lasciare solo il polimero modellato. Il modello polimerico può essere utilizzato per indurre una crescita cellulare controllata sopra o intorno alle isole polimeriche. Applicazione n. 3 Fascio di ioni focalizzati Mentre la fotolitografia è limitata alla microscala, i modelli in nanoscala possono essere fabbricati utilizzando un fascio ionico focalizzato o FIB. FIB utilizza un fascio di ioni per ablare o depositare materiali su una superficie secondo uno schema preciso. In questo esempio, elettrodi d'oro pre-modellati sono stati funzionalizzati con cristalli di molibdeno. Quindi, ponti di platino su scala nanometrica sono stati depositati utilizzando FIB per collegare il cristallo all'elettrodo d'oro. Queste strutture possono quindi essere utilizzate per migliorare e ulteriormente i dispositivi EMS bio. Hai appena visto l'introduzione di Jove alla microfabbricazione tramite la fotolitografia. Ora dovresti capire il processo di base della fotolitografia, come viene eseguito in laboratorio e alcuni modi in cui la tecnica viene utilizzata nella fabbricazione su dispositivi bio MEMS. 6 Comunale/Galbo Lezione 25 Bionanotecnologie (Boffito) 28/04/2022 LITOGRAFIA TRADIZIONALE La litografia tradizionale è la litografia che utilizza i raggi UV visibili, detta anche fotolitografia, e ha però un limite: può difficilmente raggiungere 100 nm di risoluzione. Quindi, sono state pensate e sviluppate altre tecniche litografiche che utilizzassero altri tipi di radiazioni, al fine di aumentare la risoluzione. La risoluzione è comunque proporzionale ai volumi di produzione. Come sappiamo, più andiamo verso tecniche che portano a risoluzione più alte, più diminuiamo i volumi di produzione. Le altre tecniche, alternative, sono: Litografia a raggi X (λ= 0.1-10 nm) o utilizzando l’UV estremo (una delle radiaizoni UV che abbiamo visto, ed è quella che ha le lunghezze d’onda più corte, (10-70 nm)). Litografia che fa uso di particelle cariche – quando parliamo di particelle cariche ci riferiamo a elettroni o a ioni. Quindi parleremo di litografia a fascio di elettroni e di litografia a fascio ionico. La RISOLUZIONE è data da questa formula: R=k1∙λ/NA (equazione di Rayleigh) NA apertura numerica della lente NA = n (indice di rifrazione) senα α = apertura angolare = 1/2 angolo cono raggi superficie-lente Essa è direttamente proporzionale alla lunghezza d’onda della radiazione incidente usata e poi dell’apertura numerica della lente. 7 Comunale/Galbo Lezione 25 Bionanotecnologie (Boffito) 28/04/2022 In questa slide partiamo dalla fotolitografia che abbiamo visto, vediamo che ha il raggio più largo (risoluzione inferiore), si passa poi alla litografia a raggi X (presenta un miglioramento in quanto non ha fenomeni di rifrazione, come invece ha la fotolitografia che utilizza i raggi UV). E poi ci sono le due tecniche che invece utilizzano le particelle cariche: 1. Tecnica che utilizza gli elettroni 2. Litografia a fascio ionico Questo è lo spettro delle radiazioni, al momento siamo sull’ultravioletto. Adesso, passiamo ai raggi X. LITOGRAFIA A RAGGI X I passi sono gli stessi di quelli visti precedentemente; ciò che cambia è che la maschera dovrà essere sensibile ai raggi X, quindi avremo delle zone trasparenti ai raggi X, delle zone che, invece, assorbono i raggi X, e la stessa cosa per i resist. Ciò che cambia principalmente sono i materiali utilizzati per rivestire e per fare le maschere. In questa immagine vediamo i vari sistemi per mantenere il substrato e con la fonte di raggi X che va a colpire prima la maschera e poi il substrato. 8 Comunale/Galbo Lezione 25 Bionanotecnologie (Boffito) 28/04/2022 I raggi X sono quella porzione dello spettro elettromagnetico, che ha una lunghezza compresa tra 10 nm e 1pm, e sono classificati come radiazioni ionizzanti. I raggi X che hanno lunghezze d’onda che superano lo 0,1 nm sono considerati raggi X molli e sono quelli che vengono normalmente utilizzanti in diagnostica. I raggi X con lunghezza d’onda inferiore a 0,1 nm sono considerati raggi X duri e vengono utilizzati maggiormente in terapia oncologica. Sono stati scoperti dal fisico Wilhelm Conrad Roentgen nel 1895, ed egli è stato il primo a ricevere il premio Nobel per la fisica nel 1901. Vennero scoperti da lui mentre stava facendo degli esperimenti con raggi catodici in un tubo a vuoto, e si notò che su uno schermo di platinocianuro di bario compariva una certa fluorescenza, si era anche accorto che se andava a interporre una mano, riusciva a ottenere un’immagine della sua mano sulla lastra. Quindi, aveva capito che si formavano, in qualche modo, delle radiazioni che erano capaci di superare il materiale con cui era fatto il sistema che lui stava studiando. DIFFERENZE TRA LITOGRAFIA A RAGGI X E LITOGRAFIA TRADIZIONALE I passaggi tra le due litografie, come abbiamo detto, sono gli stessi, ma vi sono delle differenze. VANTAGGI DI UTILIZZARE LA RADIAZIONE A RAGGI X RISPETTO AI RAGGI UV • I raggi X hanno una lunghezza d’onda minore (4-50 Å) rispetto ai raggi UV (2000-4000 Å): riusciamo a ottenere risoluzioni più alte. • Gli effetti di diffrazione sono quindi ridotti e la risoluzione è maggiore. Anche le litografie con particelle cariche, come vedremo, permettono di ottenere una risoluzione molto alta, ma, per funzionare, hanno bisogno di un sistema ad alto vuoto, cosa che nel caso dei raggi X non è richiesta. Nel caso dei raggi X abbiamo il resist, poi si interpone la maschera, viene fatta passare la radiazione. • È una tecnica di riproduzione 1X – l’immagine nella maschera è l’esatta riproduzione del pattern (stessa scala). Le maschere in questo caso hanno sempre una scala 1:1, quindi non si possono utilizzare sistemi ottici che permettono di avere una diminuzione della dimensione della maschera. 9 Comunale/Galbo Lezione 25 Bionanotecnologie (Boffito) 28/04/2022 Quindi, le maschere devono essere sempre in rapporto 1:1 con l’immagine che si vuole ottenere sul substrato. • Richiede maschere ad alta precisione: anche in questo caso vi sono processi molto costosi di produzione delle maschere per raggi X rispetto alle maschere utilizzate per la radiazione univisibile. • Esistono 3 sorgenti principali di raggi x: - Tubi radiogeni - Laser plasma - Sincrotroni (più comuni in micro-nano fabbricazione) SCELTA DEL RESIST Vediamo quali sono le CARATTERISTICHE CHE DOVREBBE AVERE IL RESIST QUANDO VIENE IMPIEGATO NELLA LITOGRAFIA A RAGGI X ▪ Possedere elevata sensibilità ai raggi X ▪ Garantire elevata risoluzione ▪ Essere resistente all’etching (chimico/ionico e plasma) – caratteristica tipiche anche dei resist per fotolitografia normale ▪ Avere stabilità termica (T> 140°C) - caratteristica tipiche anche dei resist per fotolitografia normale Al momento non esiste un materiale che garantisca tutti questi requisiti • Il materiale più utilizzato come resist è il polimetilmetacrilato (PMMA). Commercialmente si conosce come plexiglass. Formula (da non ricordare): Possono essere usati altri tipi di acrilati per la litografia a raggi X; per un determinato tipo di litografia a raggi X, che vedremo successivamente e si chiama tecnica LIGA, può essere usato anche l’acido polilattico. LIMITE NEI RESIST ATTUALMENTE UTILIZZATI (anche nel polimetilmetacrilato): • bassa sensibilità ai raggi X – per aumentarne la sensibilità si possono includere elementi a elevato numero atomico all’interno del resist. Anche in questo caso, la radiazione può o rompere le catene o cross linkare le catene. Si può avere, anche in questo caso, un resist positivo o un resist negativo. • Generalmente i resist NEGATIVI per litografia raggi X hanno maggiore sensibilità rispetto a quelli positivi. 10 Comunale/Galbo Lezione 25 Bionanotecnologie (Boffito) 28/04/2022 In generale, gli stessi resist che utilizziamo per la litografia a raggi X possono essere utilizzati anche per le litografie con le particelle cariche, perché più o meno il meccanismo di funzionamento dovrebbe essere lo stesso. Quindi, il polimetilmetacrilato viene utilizzato sia nella litografia a raggi X, ma anche nel caso delle litografie con le particelle cariche. I passaggi poi sono sempre gli stessi. Quindi abbiamo deposizione del resist, irraggiamento con la radiazione X (con interposta la maschera); a questo punto si ha la fase di sviluppo, in cui verrà rimossa una parte del resist. Otteniamo il resist con la geometria desiderata, si vanno a fare poi i vari processi di etching o deposizione. Quello che cambia è il tipo di radiazione e il tipo di materiale, e la maschera. FABBRICAZIONE DELLA MASCHERA PER LITOGRAFIA A RX Come sono strutturate le maschere per la litografia a raggi X? Strato assorbente = Anche in questo caso hanno una parte che assorbe la radiazione, e in questo caso sono parti realizzate con materiali a elevato numero atomico, che assorbono maggiormente i raggi X (oro, tungsteno, tantalio o delle loro leghe). Substrato = Ci sono poi delle zone della maschera che sono trasparenti alla radiazione X (titanio, silicio e altri materiali come il berillio). Vediamo come si fabbrica la maschera per la litografia a raggi X. Le maschere sono a loro volta realizzate con tecniche litografiche. E, in particolare, le maschere per raggi X, che devono avere elevate risoluzioni, sono solitamente realizzate con le litografie a particelle cariche. Abbiamo un wafer di silicio, che è trasparente alle radiazioni X, che è coperto da uno strato d’oro (materiale assorbente). L’oro, a sua volta, è rivestito da uno strato di resist (PMMA). Come viene disegnato il pattern sulla maschera? Per prima cosa, attraverso un fascio di elettroni si scolpisce lo strato di PMMA, quindi il resist viene disegnato dal fascio di elettroni. Successivamente, tutto il substrato viene sottoposto a un etching ionico: all’interno di un sistema al plasma, utilizzando ioni di Argon, si fa un etching. L’etching fisico fa sì che venga rimosso l’oro solo nelle zone in cui prima era stato rimosso il resist, perché il PMMA evidentemente scherma la zona di oro. 11 Comunale/Galbo Lezione 25 Bionanotecnologie (Boffito) 28/04/2022 A questo punto si ha la rimozione del PMMA (fase finale: fase di stripping), e quello che otteniamo è la maschera composta dalla parte di silicio trasparente, e dalle varie zone di oro, che sono invece il materiale assorbente, e che quindi portano alla formazione della geometria. Quindi, è il fascio di elettroni che fa un’azione di spatter sul resist di polimetilmetacrilato. In questa slide sono riportati i confronti tra i metodi di produzione di una maschera per fotolitografia (litografia con raggi UV) e una maschera per litografia con raggi X. In generale, quando si pensa alla produzione di una maschera si ha in mente il disegno che si vuole trasportare sul wafer (sul substrato). Quindi, per prima cosa si realizza il disegno con un sistema di CAD. Poi, si ha la preparazione del substrato. Nel caso della maschera ottica, il substrato può essere solitamente quarzo, trasparente alla radiazione UV. Nel caso, invece, della maschera a raggi X, si avrà la membrana dei vari materiali visti prima, che sono, invece, trasparenti alla radiazione raggi X (silicio, berillio, titanio). Si ha poi, sempre nella preparazione del substrato, la deposizione del film metallico. Nel caso delle maschere per radiazione UV abbiamo visto che è uno strato di Cromo. Nel caso, invece, delle maschere con radiazione a raggi X, solitamente vi è una combinazione di uno strato di Cromo, seguita da uno strato di metallo pesante (può essere l’oro, ma anche il tungsteno e il tantalio). Si ha poi il disegno effettivo del pattern sulla maschera: si fa il rivestimento con il resist, si espone il pattern utilizzando la radiazione (in figura è scritta anche ottica, ma in realtà in generale per fare le maschere si usa prevalentemente il fascio di elettroni). Poi si ha lo sviluppo del pattern, con l’etching del cromo, nel caso della maschera per fotolitografia. Invece, poi avremo la parte di etching con l’oro nella parte di litografia a raggi X, e poi c’è lo stript del resist, e quindi la rimozione finale del resist. Più o meno i passaggi sono gli stessi, cambiano in alcuni punti, quello che cambia sono principalmente i costi e la durata: si ha qualche passaggio in più sulla maschera a raggi X, però si devono avere risoluzioni maggiori. Risoluzioni maggiori, tempi di produzione più lunghi: ciò è un’indicazione dei costi (circa 4 volte in più e dura quasi 3 volte in più). 12 Comunale/Galbo Lezione 25 Bionanotecnologie (Boffito) 28/04/2022 LIGA Particolare tecnica litografica a raggi X, che unisce il metodo dello stampo sacrificale alla litografia a raggi X e alla elettrodeposizione. Tendenzialmente la tecnica prevede di fare uno stampo metallico. Per farlo prima di tutto si usa la litografia a raggi X, quindi si va a definire una geometria sul resist. Il resist, prima di essere rimosso, viene riempito con un metallo, attraverso la fase di elettrodeposizione. A questo punto, il resist viene rimosso e quello che si ottiene è un componente tridimensionale metallico, che può essere utilizzato come componente, ma principalmente viene utilizzato come stampo, utilizzato con materiali polimerici. La prima volta in cui è stata unita l’elettrodeposizione alla litografia a raggi X, quindi si ha solo la parte “LIG” del nome, è stato nel 1975 all’IBM. Nel 1982, nell’istituto tedesco è stato aggiunto al processo anche lo stampo di materiali plastici, e quindi abbiamo ottenuto l’acronimo LIGA. E’ quindi una tecnica che permette la produzione di dispositivi polimerici su larga scala, partendo però da uno stampo ottenuto con la tecnica litografica, utilizzando i raggi X. Le principali applicazioni della tecnica LIGA: strutture MEMS e in generale micro e nano fabbricazione. Si svolge in tre passi: (1) LITOGRAFIA, seguita da (2) LETTRODEPOSIZIONE DI UN MATERIALE, che poi verrà utilizzato come (3) STAMPO di materiali plastici. VANTAGGI: ✓ impressionare resist spessi con elevata fedeltà = i resist utilizzati sono molto spessi, quindi si riesce a incidere e impressionare resist molto spessi con elevata fedeltà e elevata risoluzione. ✓ i raggi X hanno lunghezza d’onda corta e quindi si ha bassa diffrazione ✓ una volta realizzato lo stampo, questo può essere utilizzato per produzioni in serie SVANTAGGI: ✓ necessita di un investimento considerevole non essendo un processo “standard”; ✓ realizzazione della maschera molto costosa; ✓ necessità di sorgenti di raggi X ad elevata energia, molto costose e rare; ✓ tempi di sviluppo lunghi. 13 Comunale/Galbo Lezione 25 Bionanotecnologie (Boffito) 28/04/2022 A-abformung Si parte da un substrato in cui è stato deposto il resist per litografia a raggi X, cioè molto probabilmente polimetilmetacrilato con elevato spessore. Si utilizza la maschera con la geometria desiderata e si fa l’esposizione ai raggi X con elevata energia, in modo che riescano a incidere tutta la profondità del resist. Una volta che il resist è stato irraggiato, utilizzando la maschera, si ha lo sviluppo, quindi una parte del resist sarà rimossa (questa è la parte di litografia classica). In questo caso, a questo step si aggiunge lo step di elettrodeposizione, quindi un materiale è depositato all’interno della geometria del resist. A questo punto si rimuove il resist (il resist, quindi, in questo caso non è stato fatto per incidere e disegnare il substrato, ma è stato utilizzato come stampo per l’elettrodeposizione). Una volta che è stato riempito con un metallo, il resist viene rimosso e abbiamo la struttura metallica, che sarà poi in alcuni casi un dispositivo, ma nella maggior parte dei casi uno stampo che verrà utilizzato per realizzare e lavorare prodotti di materiali polimerici. A questo punto possiamo procedere alla fase di stampaggio, che può essere effettuata per compressione (hot embossing), oppure tramite injection molding. Stampaggio per compressione Si prende uno strato di materiale polimerico, su cui deve essere trasferita la geometria, e questo strato polimerico viene scaldato sopra la sua temperatura di transizione vetrosa, quindi sopra la sua Tg. Sopra la Tg il materiale polimerico rammollisce e, a questo punto, viene compresso tra lo stampo e un altro supporto che serve proprio per dare la pressione necessaria al fine di trasferire il pattern dello stampo al substrato polimerico. 14 Comunale/Galbo Lezione 25 Bionanotecnologie (Boffito) 28/04/2022 Dopo un certo tempo di contatto, il sistema viene raffreddato, ottenendo una temperatura sotto la Tg del polimero, il quale viene staccato e rimosso dal sistema. Il nostro stampo, in questo schema, è quello indicato con IMT. Il film polimerico viene posto tra lo stampo e un altro substrato, che serve a dare la pressione necessaria al materiale. Il sistema viene scaldato, al fine di superare la temperatura di transizione vetrosa del polimero ma non si arriva alla fusione, si lascia a contatto per un determinato tempo, in cui lo stampo viene trasportato sul materiale polimerico, si abbassa di nuovo la temperatura, al fine di arrivare al di sotto della temperatura di transizione vetrosa, quindi il materiale si indurisce e poi viene tolto dallo stampo. Questo processo può essere ripetuto n volte. Quindi noi abbiamo ottenuto uno stampo con la tecnica litografica però ad altissima risoluzione, anche con costi molto alti, però poi questo stampo può essere utilizzato n volte per riportare quel pattern su substrati polimerici. Injection molding L’altro sistema con cui può essere realizzato lo stampo è l’injection molding. In questo caso, invece, il materiale viene fuso, quindi viene portato al di sopra della temperatura di fusione e viene iniettato, attraverso un sistema che può essere meccanico o a iniezione, all’interno dello stampo che, a sua volta, è stato riscaldato. Lo stampo viene riscaldato per evitare shock termici e, quindi, difetti poi nella fase di stampaggio. Viene iniettato con velocità e pressione costante; una volta che ha riempito la cavità dello stampo, viene fatto raffreddare, quindi il materiale viene riportato a temperatura ambiente lentamente, e poi viene rimosso dallo stampo. Questa è un'altra tecnica sempre per produrre stampaggi di materie plastiche, in cui possono essere utilizzati gli stampi visti prima. Riassumendo, cosa cambia nella litografia a raggi X rispetto alla fotolitografia? Cambia la radiazione, quindi cambiano i materiali sia del resist sia i materiali con cui vengono fatte le maschere; la litografia è una tecnica che permette risoluzioni maggiori rispetto alla tecnica fotolitografica classica. 15 Comunale/Galbo Lezione 25 Bionanotecnologie (Boffito) 28/04/2022 Adesso vediamo le due tecniche che utilizzano delle particelle cariche, quindi elettroni o ioni. Per prima cosa, quando parliamo di queste tecniche andiamo a definire due diversi modi con cui si può lavorare: si può fare il direct writing o il projection system e questi due sistemi valgono sia per la litografia a fascio di elettroni sia per la litografia a fascio di ioni. Cosa succede nei sistemi di direct writing? La geometria, che viene inizialmente disegnata con un sistema CAD, viene direttamente convertita dal fascio alla resist senza l’uso di maschere; in realtà la maschera viene chiamata “maschera software” perché partendo dal sistema CAD, il fascio di particelle cariche andrà a colpire in determinate posizioni il resist, in funzione del disegno originale. Quindi, abbiamo comunque la trasposizione del disegno che vogliamo ma senza l’utilizzo di una maschera fisica. In questo caso, più piccola è la dimensione del fascio di particelle cariche, più aumenteremo la risoluzione ma più aumenteremo i tempi di processo; quindi immaginate il fascio che colpisce solo in determinate zone, a seconda del disegno CAD iniziale, il resist. Quindi, la risoluzione è dettata dalla dimensione del fascio: più il fascio è piccolo e più otteniamo risoluzioni alte però si aumentano i tempi di produzione perché si impiega più tempo a scansionare il campione, cioè il substrato. Invece, i projection system sono la litografia che abbiamo già visto; quindi, anche in questo caso, si utilizza una maschera. Si fa un fascio ampio di particelle cariche che inondano la maschera: una parte della maschera farà passare le particelle, una parte invece no e quindi abbiamo le particelle che colpiscono il resist solo in determinate parti. Quindi il projection system è quello a cui siamo abituati e che abbiamo visto fin’ora; il direct writing è quello che non utilizza una maschera fisica ma quella che viene definita maschera software, quindi trasferisce il disegno semplicemente movimentando il CAD. LITOGRAFIA A FASCIO DI ELETTRONI È la tecnica che abbiamo visto utilizzare per la realizzazione delle maschere con la litografia a raggi X e può essere utilizzata nei due sistemi; vedremo, però, principalmente che vengono utilizzate con i sistemi di direct writing. Questa tecnica litografica: -Permette di creare pattern e geometrie estremamente precise utilizzando elettroni ad alta energia; gli elettroni utilizzati hanno un’energia di circa 10-50 keV. -Possiede un’elevatissima risoluzione, fino a 3-5 nm; bisogna ricordare che nella litografia classica, senza l’utilizzo dell’UV a più piccole lunghezze d’onda, si ottiene una risoluzione di 100 nm, quindi adesso siamo scesi di 2 ordini di grandezza; -È un’implementazione del microscopio a scansione elettronica (SEM)*; -Sfrutta un fascio di elettroni che può essere focalizzato fino ad alcuni nanometri di diametro, quindi si può ottenere il diametro del fascio di elettroni che è dell’ordine di qualche nanometro, che determina poi la risoluzione della tecnica. *Il microscopio a scansione elettronica è quel microscopio che sfrutta un fascio di elettroni per andare a creare un’immagine tridimensionale del campione con ingrandimenti maggiori rispetto al microscopio ottico. Viene generato un fascio di elettroni scaldando, ad esempio, un filo metallico come il tungsteno e questo fascio di elettroni viene convogliato, utilizzando una serie di lenti, sul 16 Comunale/Galbo Lezione 25 Bionanotecnologie (Boffito) 28/04/2022 campione; una volta che il fascio di elettroni colpisce il substrato da osservare, si formano una serie di particelle, tra cui gli elettroni secondari che sono le particelle che vengono raccolte dal detettore, le quali servono per realizzare l’immagine. Le immagini del SEM sono immagini in scale di grigio con ingrandimenti molto alti, si ottengono anche ingrandimenti alti, con un campo di profondità maggiore rispetto all’ottico, quindi ci dà anche un’idea della struttura tridimensionale del campione. Partendo dal microscopio a scansione elettronica, che produce un fascio di elettroni, è stata implementata poi la tecnica litografica a fascio di elettroni. Passaggi con il direct writing, senza utilizzare la maschera: • Pulizia con ultrasuoni e alcol isopropilico del substrato di silicio • i resist che vanno bene per la litografia a raggi X vanno bene anche per la litografia a fascio di elettroni; quindi, anche in questo caso viene deposto uno strato di resist sul substrato (le tecniche con cui si depongono i resist sono sempre le stesse viste precedentemente); • Disegno della geometria usando un fascio elettronico guidato da un software, quindi la geometria è direttamente disegnata dal fascio; in questo caso non è un fascio largo che va ad incidere su una maschera ma è il fascio che disegna direttamente la geometria sul resist; • Sviluppo del resist perché l’impatto con il fascio di elettroni comporta una modifica del resist e con lo sviluppo verranno eliminate o le parti che sono state impattate dagli elettroni o le altre; • Deposizione di un sottile strato di oro (o altro materiale) sul substrato, quindi si ha il resist che è presente solo in alcune zone del substrato (si deposita l’oro e si toglie il resist) e quello che si ottiene è un pattern definito; in particolare si ottiene oro sullo strato di silicio. Come funziona la scansione del fascio sul resist? Ci sono due modalità: -Si può fare la modalità raster scanning, in cui il fascio di elettroni scansiona tutto il substrato e viene schermato nelle zone in cui non deve colpire il substrato. Quindi, in realtà, il fascio scansiona tutto il substrato; all’interno dello strumento per litografia del fascio di elettroni e anche del SEM esistono delle aperture che si possono aprire o chiudere per deviare o meno il fascio, quindi per avere il fascio effettivamente presente o no sul campione. Quindi, nel raster scanning, abbiamo il fascio che attraversa tutto il campione e in alcune parti viene schermato. -Nel vector scanning, invece, il fascio di elettroni viene movimentato seguendo la geometria. In questo caso si ha un tempo inferiore perché il fascio impatta solo nelle zone richieste dalla geometria e, quindi, si diminuiscono i tempi di produzione. 17 Comunale/Galbo Lezione 25 Bionanotecnologie (Boffito) 28/04/2022 Questi due sistemi servono a realizzare il disegno sul resist con il fascio. Questo è come si sviluppa un sistema per fare litografia a fascio di elettroni ma anche per fare imaging, quindi utilizzare un microscopio a scansione elettronica. Quindi si ha un sistema per la generazione del fascio, il quale, una volta generato, attraverso una serie di condensatori e lenti, viene convogliato alla maschera, che poi lo convoglia direttamente sul campione. La maschera è fatta di piccoli fori, quindi permette di accendere o spegnere il fascio. Il discorso sul resist è molto simile a quello del resist per la litografia a raggi X quindi, quando il fascio elettronico bombarda il polimero, vengono rotti i legami; tendenzialmente qualunque polimero potrebbe andar bene ma nella pratica, anche in questo caso, si utilizza, a causa delle varie richieste (sensibilità, risoluzione e resistenza a latching) il PMMA (Polimetilmetacrilato); in questo caso è un resist positivo perché viene danneggiato, indebolito, rotto una volta esposto agli elettroni. Esistono anche dei resist negativi che sono tendenzialmente delle resine fenoliche; uno dei nomi commerciali dei i resist negativi per il fascio di elettroni è il SAL601; queste resina hanno una migliore resistenza al latching rispetto al Polimetilmetacrilato. Bisogna ricordare che il PMMA è il resist positivo maggiormente utilizzato sia in litografia a raggi X che in litografia a fascio di elettroni; in questo caso esistono anche delle resine fenoliche che, invece, agiscono da resist negativi, quindi si rafforzano una volta che il fascio di elettroni colpisce la superfice del resist. Applicazioni: - Industria nanoelettronica - Realizzazione di pattern ad elevata risoluzione - Fabbricazione di maschere Vantaggi: - Come nel caso della litografia a raggi X, elimina i problemi di diffrazione dovuti all’impiego di uv; quindi si possono eliminare le maschere fisiche - Preciso controllo dell’energia trasferita al substrato - Alte risoluzioni (alcuni nm) - Meno difetti - Tecnica flessibile 18 Comunale/Galbo Lezione 25 Bionanotecnologie (Boffito) 28/04/2022 Svantaggi: - Lentezza della procedura ( se pensiamo ai volumi di produzione si parla di circa 5 wafer/ora) - Costosa e complicata - Problemi di scattering (difficoltà nella focalizzazione del fascio elettronico) - Necessità di lavorare in vuoto (condizione che richiedono questo tipo di tecniche e anche quella successiva) - Generazione di elettroni secondari, i quali possono andare a modificare la geometria del dispositivo in fase di sviluppo e questo è chiamato proximity effect (effetto di prossimità): il fascio di elettroni colpisce il campione ma quando il fascio di elettroni colpisce un altro materiale si producono una serie di particelle, tra cui gli elettroni secondari, che diffondono all’interno del substrato del materiale in cui è stato fatto collimare il fascio di elettroni; questi elettroni secondari possono andare a cambiare la reattività del resist alla soluzione di sviluppo. Quindi, è possibile ottenere effetti di questo genere: Se gli elettroni che hanno inciso per formare questa struttura hanno creato degli elettroni secondari, questi possono aver avuto effetto sul resist intorno, cambiando leggermente le proprietà fisiche del resist e, quindi, cambiando un po' la morfologia nello sviluppo, ottenendo questi difetti. Quindi, la morfologia delle strutture, dopo lo sviluppo, sono leggermente diverse rispetto a quelle ipotizzate nella geometria iniziale. Questo è uno dei principali difetti che presenta la litografia a fascio di elettroni. Video: https://www.youtube.com/watch?v=25AsHRgBJDM The construction process begins with the circuit design which is quite straightforward though a computer interface. Here we are demonstrating the design of 2 interdigital electrodes. The whole circuit its 200 micro maters large with a gap between the electrodes of 500 nanometers. 19 Comunale/Galbo Lezione 25 Bionanotecnologie (Boffito) 28/04/2022 Il processo di costruzione inizia con la progettazione del circuito, che è abbastanza semplice grazie all'interfaccia di un computer. Qui stiamo dimostrando la progettazione di 2 elettrodi interdigitali. L'intero circuito è grande 200 micrometri con uno spazio tra gli elettrodi di 500 nanometri. The circuit is made on a silicon plate; the first step is covering the silicon wafer with a thin layer of polymer which monomer else's when exposed to the electron beam. Il circuito è realizzato su una lastra di silicio; il primo passo consiste nel ricoprire il wafer di silicio con un sottile strato di polimero che costituisce il monomero quando esso è esposto al fascio di elettroni 20 Comunale/Galbo Lezione 25 Bionanotecnologie (Boffito) 28/04/2022 (Questo è un classico spin coater che si può trovare in tantissimi laboratori di ricerca che lavorano con polimeri sottili, con un costo di circa 20.000-25.000 €, quindi ha un prezzo decisamente contenuto) With the use of a spinner, a uniform thin coating of a hundred nanometers thickness can be deposited over the silicon. The polymer is then hardened by baking it at 200 degrees centigrade. Con l'uso di uno spinner, sul silicio può essere depositato un sottile rivestimento uniforme di cento nanometri di spessore. Il polimero viene quindi indurito cuocendolo a 200 gradi centigradi. 21 Comunale/Galbo Lezione 25 Bionanotecnologie (Boffito) 28/04/2022 When the wafer is prepared it is inserted into the electron microscope where the circuit is drawn. The electron beam precisely follows the design of the circuit and only a radiates the previously defined parts of the wafer where the electrodes will be. Quando il wafer è preparato viene inserito nel microscopio elettronico dove viene disegnato il circuito. Il fascio di elettroni segue esattamente il disegno del circuito e irradia solo le parti precedentemente definite del wafer dove ci saranno gli elettrodi. When we take out of the microscope we put into a solvent to develop it. The solvent has chosen only to dissolve and remove the part of the polymer which were irradiated by the electron beam and leave the rest of the polymer film intact. After the wafer is cleaned it is ready to move to the next stage metal deposition. Quando lo estraiamo dal microscopio, lo mettiamo in un solvente affinchè si sviluppi. 22 Comunale/Galbo Lezione 25 Bionanotecnologie (Boffito) 28/04/2022 Il solvente dissolve e rimuove solo la parte del polimero che era stata irradiata dal fascio di elettroni e lascia intatto il resto del film polimerico. Dopo che il wafer è stato pulito, è pronto per passare alla fase successiva di deposizione del metallo The wafer is placed into the sputter; this device sputters the metal over the whole surface on the part where the circuit was drawn. In the film dissolved the metal can stick directly to the silicon while everywhere else there is still a polymer film between the metal and the wafer. La cialda viene posta nello sputter: (Lo sputter viene utilizzato anche per rivestire i campioni polimerici che devono essere visti al SEM; quando vogliamo vedere al microscopio elettronico un materiale polimerico, poiché i campioni devono essere conduttivi e i materiali polimerici non lo sono, si utilizza uno spatter simile. Quindi, si riveste tutto il campione con del metallo (si possono usare diversi metalli), così il campione può essere visto con più facilità e si possono ottenere ingrandimenti maggiori al SEM) Questo dispositivo spruzza il metallo su tutta la superficie in cui è stato disegnato il circuito. Nella pellicola disciolta il metallo può attaccarsi direttamente al silicio mentre dappertutto c'è ancora una pellicola polimerica tra il metallo e il wafer. 23 Comunale/Galbo Lezione 25 Bionanotecnologie (Boffito) 28/04/2022 The final step is removing all of remaining polymer together with the unwanted metal. The wafer is put into a different solvent which dissolves the polymer. The metal on the polymer also floats off while the matal that is directy on the silicon wafer stays intact and the result are two very small and precise electrons. Il passaggio finale consiste nella rimozione di tutto il polimero rimanente insieme al metallo indesiderato. Il wafer viene messo in un solvente diverso che dissolve il polimero. Anche il metallo sul polimero galleggia mentre il materiale che si trova direttamente sul wafer di silicio rimane intatto e il risultato sono due elettroni molto piccoli e precisi L’unica cosa che cambia, rispetto ai passaggi visti prima, è che non si utilizza una maschera fisica ma il pattern viene direttamente trasferito utilizzando il fascio di elettroni. 24 Comunale/Galbo Lezione 25 Bionanotecnologie (Boffito) 28/04/2022 LITOGRAFIA A FASCIO DI IONI (FIB) Anche questa tecnica utilizza particelle cariche; in questo caso non sono utilizzati elettroni ma ioni. È molto simile alla tecnica vista precedentemente; anche in questo caso si possono utilizzare due metodi, sia il direct writing che project system e, anche in questo caso, è maggiormente utilizzato il direct writing. In realtà, questa tecnica viene utilizzata per tre grandi applicazioni: -per fare il processo che viene definito milling o incisione del substrato, quindi sputtering, cioè eliminazione del materiale, senza la possibilità di utilizzare il resist; -si può fare imaging; infatti, come il fascio di elettroni, anche il fascio di ioni può essere utilizzato per fare imaging; -per la deposizione di materiali; ad esempio, con le tecniche litografiche a fascio di ioni si producono le punte per il microscopio a forma atomico (AFM) (punta che ha un diametro a livello nanometrico). Caratteristiche della litografia a fasci di elettroni: • È una tecnica litografica che utilizza un fascio di ioni ad alta energia • L’energia degli ioni incidenti può variare tra qualche keV fino a decine di MeV • Anche in questo caso, come nel caso della litografia a fasci di elettroni, si ha la necessità di realizzare un ambiente a vuoto, quindi la generazione di un vuoto spinto • Come la tecnica precedente, è maggiormente utilizzata senza l’impiego di una maschera fisica • Può essere utilizzata o con il solito modo, cioè andando a colpire con il fascio di elettroni il resist o può essere utilizzata per fare un’azione di sputtern, quindi incisone, direttamente sul substrato (quindi, con questa tecnica si potrebbero eliminare delle procedure che abbiamo visto nei processi litografici precedenti) • Tra tutte le tecniche litografiche è quella che permette di raggiungere la maggiore risoluzione; la cosa positiva del fascio di ioni è che produce particelle secondarie che hanno una carica inferiore rispetto a quelle prodotte dal fascio di elettroni quindi si hanno meno effetti indesiderati e si ottengono risoluzioni migliori rispetto a quelle ottenute con il fascio di elettroni • Gli ioni hanno lunghezze d’onda più piccole perciò i fenomeni di diffrazione sono quasi nulli e i fenomeni di scattering, cioè produzione di particelle una volta che gli ioni colpiscono il substrato, molto meno importanti rispetto alla litografia con fascio elettronico • Il resist può essere il PMMA, come nella litografia a raggi X e litografia a fasci di elettroni, o altri materiali sensibili all’assorbimento di ioni • L’applicazione più importante di questa tecnica è nella riparazione di maschere per litografia realizzate mediante altre tecniche oppure per realizzare direttamente strutture tridimensionali, nel caso in cui venga utilizzato non il resist ma l’incisione direttamente sul substrato. Per la generazione di ioni si utilizzano tipicamente sorgenti a metallo liquido, quindi un metallo che sia liquido a temperature vicine a quelle ambientali; le sorgenti di ioni maggiormente utilizzate sono il Gallio, Indio e Oro (soprattutto il Gallio, il quale è liquido a circa 30°). Si possono utilizzare materiali dopanti e gli ioni sono molto più reattivi degli elettroni: il loro impatto contro la superficie può essere sfruttato per modificare la superficie stessa l’elettrone ha una quantità di moto inferiore rispetto ad uno ione, quindi quando colpisce gli atomi del substrato, non crea grossi 25 Comunale/Galbo Lezione 25 Bionanotecnologie (Boffito) 28/04/2022 movimenti; nel caso dello ione, invece, una volta che impatta ad alta energia sul substrato, scalza l’atomo dal substrato, rimuovendo così il materiale direttamente dal substrato. Questo è il motivo per il quale si utilizza per fare una lavorazione diretta, senza l’utilizzo del resist. Oltre ad essere utilizzato come sputter, quindi per incidere direttamente il materiale, può essere utilizzato per deporre materiale sul substrato. Queste sono due rappresentazioni di come, attraverso la stessa tecnica litografica, si può andare ad incidere il substrato, andando a scalzare gli atomi direttamente dal substrato, o si può andare a depositare del materiale direttamente sul substrato, ottenendo delle strutture tridimensionali. Formazione fascio di ioni: solitamente si usa il Gallio, che è un metallo liquido, alla temperatura di circa 29° (temperatura alla quale il Gallio è liquido) e si imposta una differenza di potenziale; si forma il cono di Taylor o getto di cono e alla fine si ha la rottura dei legami del Gallio e la formazione degli atomi. Il diametro del fascio di ioni, generato con questa tecnica, può raggiungere i 50 nm fino a scendere a 4-8 nm. Questo, invece, è lo schema di come è composto lo strumento della litografia a fascio di ioni: abbiamo la sorgente di ioni, che è il Gallio che viene sottoposto a temperatura o a tensione, si forma il cono di Taylor, arriva un’energia tale rompere i legami del Gallio e avviene la formazione. Lo strumento, quindi, è composto dalla sorgente di ioni, l’estrattore degli ioni e poi ci sono una serie di aperture e lenti che servono per convogliare il fascio di ioni ad alta energia sul campione. La risoluzione della tecnica litografica è determinata dalla corrente: più alta è la corrente, più abbiamo un fascio grande e più la risoluzione è bassa però abbiamo tempi di produzione maggiori. 26 Comunale/Galbo Lezione 25 Bionanotecnologie (Boffito) 28/04/2022 Aumenta la correnteAumenta la dimensione del fasciodiminuisce la risoluzionediminuisce il tempo di processamento. Se vogliamo avere risoluzioni più alte, dovremmo abbassare la corrente ma aumenterebbe il tempo di produzione. Cosa succede quando le particelle cariche vanno a collimare sul materiale? MICROMACHING: In caso di elettroni, la massa dell’elettrone è inferiore rispetto alla massa degli atomi del substrato, quindi in realtà non ha effetto se non quello di creare tutte quelle serie di particelle tra cui gli elettroni secondari. Nel caso dello ione metallico, la massa dello ione metallico è comparabile con la massa dell’atomo del substrato che si va a incidere. Quindi, durante l’impatto si ha un grande trasferimento di quantità di moto dallo ione agli atomi del substrato. Questa energia che viene ceduta può rimuovere gli atomi dal substrato. Ricordiamoci che queste procedure vengono fatte a vuoto, quindi gli atomi rimossi vengono rimossi direttamente dalla camera del sistema grazie al vuoto che è generato all’interno della camera. Quindi, utilizzando il fascio di ioni, riusciamo non solo a modificare le caratteristiche fisicochimiche del resist, come avveniva con il fascio di elettroni, ma riusciamo anche ad andare a modificare direttamente il substrato, quindi andare a fare il processo che viene definito Milling o Spattering direttamente sul substrato. SPUTTERING: proprio per la sua capacità di sputtering, la tecnica FIB viene utilizzata non solo per la produzione di strutture tridimensionali, ma è anche utilizzata come processo di finitura di macchine utensili micrometriche. Quindi viene realizzato un sistema con altre tecniche, ma per migliorare la risoluzione superficiale del sistema si può utilizzare la tecnica del FIB. Man mano che il fascio colpisce il substrato, grazie al fatto che la massa degli ioni è paragonabile alla massa del substrato, gli atomi del substrato vengono rimossi dall’energia ceduta dall’impatto; vengono poi asportati dal substrato e si ha proprio la produzione di un’incisione sul substrato. Può anche essere considerata in qualche modo una tecnica di produzione tridimensionale (prototipazione rapida). 27 Comunale/Galbo Lezione 25 Bionanotecnologie (Boffito) 28/04/2022 MILLING: Processo continuo che avviene quando il materiale è esposto al fascio di elettroni, ed è causato proprio dalla collisione degli ioni del fascio con gli atomi del substrato. La velocità è linearmente proporzionale alla corrente, quindi se utilizziamo corrente alta avremo velocità di produzione maggiore, andando però a discapito della risoluzione e viceversa. Si ha, quindi, comunque un controllo molto preciso, perché quando si parla di risoluzioni più grandi si parla di fasci da 50 nm fino a 4-5nm. La velocità tipica della rimozione in 10 minuti è 10 x 5 x 3 μm 28 Galazzo/Serio 26 Bionanotecnologie (Carmagnola) 29/04/2022 Litografia a fascio di ioni (FIB) La tecnica litografica affrontata durante l’ultima lezione è la litografia a fascio di ioni, che utilizza un fascio di ioni per incidere il substrato. Questa tecnica ha molte similitudini con l'altra tecnica che utilizza particelle cariche, ovvero la tecnica litografica a fascio di elettroni. In realtà, la litografia a fascio di ioni permette di fare più operazioni: - - si utilizza nella condizione di direct writing (andando a collimare direttamente sul substrato); si può fare litografia classica, quindi utilizzando il resist; si può fare sputtering o milling, ovvero asportazione direttamente del materiale dal substrato, questo perché gli ioni hanno una massa maggiore degli elettroni, quindi quando colpiscono con alta energia il substrato trasferiscono una quantità di moto tale da permettere agli atomi più superficiali di essere scalzati dal substrato e vengono quindi rimossi. Con questa tecnica si può andare direttamente a incidere il substrato; si può fare imaging; si può anche depositare materiale sul substrato: si può non solo incidere, ma anche aggiungere materiale al substrato. Milling Il processo di milling, ovvero il processo di asportazione direttamente operato dal fascio di ioni su un substrato senza passare dal resist, è causato dalla collisione del fascio direttamente sul substrato. La velocità con cui si asporta il materiale è direttamente collegata alla grandezza del fascio ionico e quindi alla corrente. Più alta è la corrente, più il fascio ionico è grande, ma se la velocità di asportazione del materiale aumenta si perde in risoluzione. Con correnti basse, e quindi fasci piccoli, si ottiene un’alta risoluzione, ma tempi di lavorazione molto lunghi. Il tempo di processo viene definito come volume di materiale asportato per tempo, micrometri cubi per secondo (μm3/s). Per dare un’idea della velocità di asportazione, si impiegano circa 10 minuti per rimuovere un rettangolo con un’area di 10x5x3 μm. Video: https://www.youtube.com/watch?v=sHOSRcf6svQ Si tratta di un video accelerato che mostra come si va a incidere un substrato. Il fascio riesce ad asportare direttamente il substrato, senza impattare sul resist, senza cambiarne le proprietà fisicochimiche. 1 Galazzo/Serio 26 Bionanotecnologie (Carmagnola) 29/04/2022 Imaging - microscopia Col fascio di ioni si può fare anche imaging: in realtà, è molto simile all’imaging ottenuto con il fascio di elettroni. Quando il fascio di ioni viene convogliato sul campione da analizzare, reagisce con gli atomi del campione, si producono particelle che possono essere rilevate dai detector per ottenere l’immagine oppure possono essere rilevate per ottenere un’informazione sulla composizione chimica superficiale. È possibile ottenerla anche con il SEM: se dotato di specifici detector, riesce anche a dare un’idea della composizione superficiale. Si tratta di un’analisi meno fine rispetto all’XPS, ma dà un’idea qualitativa della composizione chimica del materiale che si sta analizzando. Per realizzare l’immagine vengono utilizzati elettroni secondari (come nel SEM) e gli ioni secondari che vengono prodotti. In basso, degli esempi di immagini ottenute tramite fascio di ioni per imaging. Le prime due immagini sono ad alta risoluzione (la barra di ingrandimento è sui 100 nm), invece la terza immagine è più definita, la parte chiara è relativa al silicio, quella scura al materiale isolante. Focused-ion-beam chemical-vapor-deposition (FIB-CVD) Come è possibile depositare materiale attraverso il fascio ionico? La tecnica che viene utilizzata combina il fascio ionico con la deposizione chimica a vapore nello stesso strumento. Gli strumenti che permettono di eseguire questi processi sono equipaggiati in questa maniera: - parte che rilascia il fascio ionico; parte relativa al SEM; dispositivo che permette di andare a inserire il precursore di un gas. L’aggiunta di un sistema per l’inserimento del precursore del gas nella camera permette di eseguire più operazioni e di migliorare alcune operazioni. All’interno del sistema di FIB è inserito un sistema che inietta un gas, o meglio, un precursore di un gas. Con l’aggiunta di questa fase 2 Galazzo/Serio 26 Bionanotecnologie (Carmagnola) 29/04/2022 gassosa si può migliorare l’efficacia dell’etching, si può fare un etching selettivo (cioè si possono asportare solo determinati tipi di materiale, nel caso invece del FIB classico questa cosa non è possibile). Se non è presente il gas non si può fare deposizione di materiale sulla superficie. 1. Si migliora l’etching velocizzandolo, il fascio ionico attiva la reazione tra il gas presente in camera e il materiale che si deve asportare, si migliora così l’asportazione di materiale dal substrato. 2. Selezionando determinati tipi di gas si può ottenere etching selettivo: ad esempio, se si usa come gas il difluoruro di xeno, si promuove l’etching di materiali come il silicio; invece, inserendo nella camera il gas di iodio si promuove l’etching di soli metalli; nel caso in cui si aggiunga vapore acqueo, si migliora e promuove etching di materiali organici, come i polimeri. Quindi, se all’interno del sistema si ha un materiale composto da polimero e da metallo e si vuole eseguire solo l’etching del metallo o solo del polimero, si può fare in modo selettivo inserendo nel sistema un gas opportuno. 3. Deposizione di materiali: si ha sempre il sistema che rilascia il precursore del gas che convogliato verso la superficie del substrato. Sulla superficie viene anche focalizzato il fascio di ioni. Il fascio di ioni decompone i precursori del gas, facendo sì che una parte degli atomi di interesse vengano effettivamente deposti sulla superficie, mentre il resto degli elementi della reazione sono prodotti volatili. I prodotti volatili vengono lasciati in camera e esportati grazie al vuoto presente in camera. In questo modo il materiale si deposita selettivamente sulla superficie secondo determinate geometrie. Si possono usare precursori metallici o ceramici, ma la qualità del materiale deposto però non è ottimale, ci sono impurità dovute alla presenza di elementi rimasti dal precursore del gas o materiali del substrato che possono essere inglobati nel materiale che si sta depositando. Si tratta di un processo molto lento in generale. Nanomanipolatori Il sistema FIB può essere unito al SEM: il fascio ionico crea il substrato (o incide o addiziona materiale sul substrato), il SEM permette di ottenere imaging in tempo reale di quello che sta succedendo sul campione. In questi strumenti il sistema di SEM e fascio ionico sono posizionati a una determinata angolatura, viene 3 Galazzo/Serio 26 Bionanotecnologie (Carmagnola) 29/04/2022 posizionato il campione e i fasci si focalizzano su un unico punto del campione, facendo contemporaneamente imaging e asportazione o deposizione di materiale. Questi sistemi combinati vengono chiamati nanomanipolatori e permettono di fare più operazioni contemporaneamente sul campione. Video: https://www.youtube.com/watch?v=uXJI5GmdGCw I sistemi di manipolazione prevedono anche strumenti per spostare e muovere oggetti dentro la camera. Da qui in poi si vedranno tecniche litografiche non classiche, ma molto simili alle precedenti, che hanno subito lievi modifiche. Si ricordi che se si vogliono grandi volumi di produzione le tecniche migliori sono quelle che hanno una risoluzione inferiore e viceversa. Nanoimprinting (NIL) Sono tecniche di due diversi tipi che utilizzano non un fascio di particelle cariche, ma uno stampo per a disegnare il resist. Si tratta di uno stampo rigido ottenuto precedentemente con le tecniche litografiche che trattate fino ad ora. Sono state introdotte negli anni ’90 al fine di andare a superare i limiti di risoluzione tipici della fotolitografia UV, che ha le risoluzioni peggiori, però si voleva mantenere alto il volume di produzione. È stato pensato di utilizzare, per incidere il resist, uno stampo rigido. Si parte dal substrato e si riveste con il restist; lo stampo rigido viene depositato sul resist; si aumenta la temperatura per superare la temperatura di transizione vetrosa del polimero; il resist rammollisce e si imprime la geometria dello stampo sul resist: si avranno zone con resist più alto e più basso. A questo punto si è nella stessa condizione in cui si era alla fine dello sviluppo della litografia tradizionale. 4 Galazzo/Serio 26 Bionanotecnologie (Carmagnola) 29/04/2022 Ora si può scegliere di fare etching, quindi lavorazione sottrattiva (come nelle immagini in alto), oppure possiamo andare a depositare del nuovo materiale nel caso in cui la lavorazione preveda di aggiungere nuovo materiale al substrato (immagini a destra). In questo secondo caso, le fasi da seguire sono le stesse elencate prima; eventualmente, si può fare un passaggio per eliminare il sottile strato di resist nelle zone in cui non dovrebbe esserci e poi si procede alla deposizione del nuovo materiale su tutto il substrato, poi il resist viene eliminato nella fase di lift-off e quindi si ritorna nella stessa condizione già affrontata nelle scorse lezioni. Il vantaggio è che lo stampo può essere utilizzato più volte e si ottengono risoluzioni migliori rispetto alla fotolitografia tradizionale. Teoricamente la risoluzione che si ottiene dovrebbe essere uguale alla risoluzione del primo stampo ottenuto tramite tecnica litografica classica. In questo caso lo stampo deve avere un rapporto dimensionale 1:1 rispetto all’immagine che si vuole riportare sul substrato (analogia con la maschera in contatto o in prossimità nel caso di fotolitografia tradizionale). Nanoimprinting step and flash litography L’altra tecnica di nanoimprinting si chiama nanoimprinting step and flash litography. La differenza è che in questo caso non si sfrutta lo stampaggio a compressione per incidere il resist, ma lo stampo che si utilizza è trasparente a raggi UV; il resist è un polimero fotosensibile, cioè polimerizza se interagisce con la radiazione UV, è liquido, ha poca viscosità. Dunque si ha: il substrato; il materiale che deve essere disegnato; il resist o una protezione; la maschera è rigida e trasparente ai raggi UV ed è spesso rivestita con uno strato che ne consente la corretta rimozione (senza strappare il materiale sottostante). Si appoggia delicatamente lo stampo sul materiale sensibile agli UV e si irraggia; il materiale sensibile agli UV polimerizza e assume la forma dello stampo; si toglie lo stampo e a questo punto si possono fare le varie lavorazioni (o etching o deposizione). Nel caso in figura in alto si fa etching (viene eliminato solo il materiale nello strato non rivestito dal resist), viene tolto il resist e si ottiene la nanotopografia sul materiale fucsia. Si riescono a ottenere geometrie di dimensioni di qualche decina di nanometri (risoluzione migliore rispetto alla litografia classica). 5 Galazzo/Serio 26 Bionanotecnologie (Carmagnola) 29/04/2022 Nel caso in cui si voglia fare etching del substrato, si può non usare il transfer layer. Si riescono a ottenere geometrie con alcune decine di nm, dimensioni molto più piccole rispetto alla fotolitografia tradizionale. Confronto tra nanoimprinting ad alta temperatura e nanoimprinting step and flash. La differenza principale è che nel secondo caso la maschera deve essere trasparente ai raggi UV e la risoluzione viene determinata dalla risoluzione della maschera rigida, ottenuta con le tecniche litografiche viste. Anche in questo caso, il rapporto è 1:1. Esempi di immagini ottenute al microscopio di strutture ottenute con nanoimprining. Nell’immagine in alto a destra, le strutture circolari hanno diametro di poco più di 100 nm. Nell’immagine in basso a destra, le scanalature hanno larghezza di circa 100 nm. Litografia a due fotoni Questa tecnica verrà solo accennata. Ha prestazioni davvero buone dal punto di vista della risoluzione e perché permette la costruzione di oggetti 3D di forme complesse. È una tecnica litografica per direct writing e permette di ottenere strutture tridimensionali: si utilizza un resist che polimerizza quando colpito da due fotoni, quindi si sfrutta il principio secondo cui la probabilità che due fotoni vengono assorbiti nello stesso punto è proporzionale al quadrato dell'intensità del fascio. Si utilizza un fascio laser, solitamente pulsato, che viene focalizzato sul campione di resist. Rispetto alla dimensione del fascio l’energia è una curva gaussiana, quindi ha maggiore intensità solo in una parte del fascio, la polimerizzazione avviene dove si supera un valore soglia che permette l’assorbimento di due fotoni. Nelle altre tecniche, la risoluzione è proporzionale alla lunghezza d’onda utilizzata; in questo caso, anche se si ha un fascio piccolo, solo una piccola parte avrà intensità tale per cui assorbirà due fotoni e quindi promuovere la polimerizzazione del resist. Dunque, si riesce a scendere al di sotto della lunghezza d’onda utilizzata come risoluzione: questo permette di ottenere strutture tridimensionali molto complesse. Un altro vantaggio è che permette di avere una filtrazione maggiore dei fotoni (profondità maggiore). 6 Galazzo/Serio 26 Bionanotecnologie (Carmagnola) 29/04/2022 Esempi di strutture realizzate con questa tecnica. Video: https://www.youtube.com/watch?v=mdup3w7DCZE&ab_channel=TUWienTV Molto spesso questa tecnica viene inserita tra le tecniche di additive manufacturing. È una tecnica usara per realizzare scaffold nell’ambito del tissue engineering. Ha un limite: esiste un range limitato di materiali che si possono utilizzare. Soft litography È una tecnica simile al nanoimprinting: con uno stampo riporto una geometria. In questo caso lo stampo è in materiale soft. Il materiale soft per eccellenza è il polidimetilsilossano (PDMS), anche conosciuto come silicone. Quindi, per soft litography si intende una serie di tecniche alla base delle quali c’è l’utilizzo di uno stampo soft siliconico. Lo stampo in PDMS si ottiene a partire da un master ottenuto con tecnica litografica. Con una tecnica litografica classica si fa il master: si ha deposizione del fotoresist, si decide quale esposizione fare e poi si sviluppa e si crea il master; a partire da questo, per ottenere lo stampo in PDMS si cola il silicone sullo stampo, si fa polimerizzare e si ottiene lo stampo. Si utilizza il silicone perché; è un materiale omogeneo, ha le stesse caratteristiche su tutto il campione; è trasparente; è inerte; è flessibile; ha basso costo; si produce facilmente. Esistono diversi tipi di silicone in commercio, solitamente quando si acquista un silicone si acquista la base siliconica e l’iniziatore della polimerizzazione, dopodiché si segue una ‘ricetta’ che unisce una certa quantità di base siliconica e di reticolante, si aspetta del tempo affinché la polimerizzazione sia completa. Uno dei siliconi più utilizzati è il silica 184: si parte dai due composti che si mettono in rapporto 10:1, poi si può far polimerizzare a temperatura per tempi brevi o a temperatura ambiente per tempi più lunghi (circa 48 ore). Questa tecnica trova vastissima applicazione nei sistemi di microfluidica (organ on chip) e nei bioMEMS. Come si ottiene lo stampo in PDMS? Si ha un precursore liquido del PDMS che viene unito all’iniziatore della polimerizzazione, si unisce velocemente (prima che inizi la polimerizzazione e che quindi il materiale diventi più rigido) e viene versato sul master in bassorilievo. Il master in bassorilievo è un substrato con disegno in rilievo o inciso. A questo punto, si fa polimerizzare il 7 Galazzo/Serio 26 Bionanotecnologie (Carmagnola) 29/04/2022 silicone, che assume la stessa morfologia del master iniziale. Teoricamente, la risoluzione dello stampo in silicone dovrebbe essere uguale a quella del master, ma in pratica subentra l’interazione tra il silicone e il materiale di cui è fatto lo stampo e dal metodo che si utilizza per deporre l’elastomero (ad esempio, se si versa solo, se si usa una pressione negativa per far aderire meglio, ecc). Anche in questo caso, si ha un rapporto delle dimensioni 1:1. Video: https://www.youtube.com/watch?v=lH-FCSxRvrU&ab_channel=QueenMaryMicrofluidics Nel video, lo stampo è stato utilizzato direttamente per realizzare un sistema microfluidico. Il silicone è il materiale gold standard: ha una bassa energia superficiale, è chimicamente inerte ma si può modificare la superficie, non è igroscopico (non assorbe acqua), è permeabile ai gas, ha una buona stabilità termica, è trasparente (ottimo per i sistemi di microfluidics), è isotropo, omeogeno e durevole. Tutte le tecniche di soft litography si basano sullo stampo di silicone. Esistono 3 tecniche di soft litography: 1. micromolding; 2. micro-replica molding; 3. micro contact printing. 8 Galazzo/Serio 26 Bionanotecnologie (Carmagnola) 29/04/2022 Micromolding Questa tecnica consiste nel depositare un materiale polimerico nello stampo e di ottenere una struttura polimerica che replica la morfologia dello stampo. Per inserire il materiale polimerico nello stampo si possono utilizzare diverse tecniche: - - - casting del polimero: tecnica più semplice. Si va a colare la soluzione polimerica sullo stampo e si elimina la soluzione in eccesso, si fa indurire il polimero facendo evaporare il solvente o con un processo di reticolazione. Una volta indurito, si rimuove lo stampo e quello che si ottiene è una struttura polimerica che replica lo stampo; tecnica microfluidodinamica: lo stampo è posizionato su un substrato, di fianco viene messo il liquido che viene inserito nelle cavità dello stampo applicando un vuoto (pressione negativa), oppure sfruttando l’effetto capillare della soluzione polimerica all’interno delle strutture dello stampo. Anche in questo caso si può far evaporare il solvente o indurire il polimero. Si elimina lo stampo e si ottiene dunque il polimero che replica la morfologia dello stampo; spin coating: simile al primo, si va a deporre la soluzione del polimero sullo stampo e si utilizza la velocità di rotazione per far sì che la soluzione penetri nella morfologia e nelle strutture cave dello stampo, si fa indurire il polimero che replica lo stampo. Lo stampo è appoggiato su un substrato, viene messo il liquido che va a riempire i canali per effetto capillare e si ottengono le strutture che si vedono nelle immagini accanto. 9 Galazzo/Serio 26 Bionanotecnologie (Carmagnola) 29/04/2022 Micro-replica molding Si utilizza questa tecnica quando si vuole ottenere uno stampo che sia il negativo di un altro stampo. Lo stampo ottenuto viene poi utilizzato per creare delle micro e nano strutture. Si deposita il materiale elastomerico sullo stampo in silicone, si fa polimerizzare e poi si rimuove. Al fine di evitare l’adesione tra i due stampi (essendo dello stesso materiale), lo stampo in silicone viene trattato superficialmente per creare un sottile strato non adesivo che permette la rimozione del materiale elastomerico senza danni. Esempio: l’obiettivo del lavoro era fare un pattern per l’adesione cellulare selettivo, cioè le cellule dovevano rimanere confinate solo in alcune zone del dispositivo. Se il substrato è tutto uguale e piace alle cellule, queste si distribuiscono ovunque. Si è creato un substrato in cui il pattern avesse composizioni differenti, con zone di materiale che piacesse alle cellule e zone di materiale che non piacesse alle cellule. I due materiali scelti sono stati il PEG (materiale anti adesivo e in generale non adatto all’adesione cellulare) e la fibronectina (materiale scelto per favorire l’adesione). Sul substrato è stato posto uno strato di PEG, poi lo stampo con la geometria desiderata (a canali). È stato fatto un trattamento ad ossigeno (etching al plasma di ossigeno), che elimina il PEG solo dove ci sono vuote nello stampo; utilizzando sistemi di iniezione, viene messa la fibronectina all’interno dei vuoti dello stampo. Quando si rimuove lo stampo in silicone si ottiene che in alcune zone ci sarà il PEG, in altre la fibronectina. Le cellule sono state seminate e anche 5 giorni riescono a mantenere la loro deposizione. Questo dà un’idea del fatto che si riescono ad ottenere degli stampi che possono portare alla deposizione sul substrato finale anche di materiali molto diversi, con strutture complesse a livello nanometrico. 10 Galazzo/Serio 26 Bionanotecnologie (Carmagnola) 29/04/2022 Micro-contact printing In questo caso, lo stampo in silicone ottenuto viene utilizzato come timbro. Lo stampo di silicone è immerso in una soluzione di una molecola: le molecole sono o tioli o biomolecole (come proteine). Nell’esempio, l’obiettivo era lo stampaggio su un substrato d’ oro in modo selettivo, con una determinata geometria, cioè immergendo il substrato in una soluzione della molecola il SAM si distribuisce in modo uniforme su tutta la superficie. È stato preso il silicone imbevuto nella soluzione contenente le molecole e posto su un substrato con un sottile strato d’oro. Se si ha substrato planare e stampo planare si è nella condizione A: quindi, si mette lo stampo in silicone nella soluzione “inchiostro”, si pressa sul substrato e le molecole vengono trasferite al substrato; come nei timbri classici imbevuti in inchiostro, solo le molecole presenti sull’area del timbro che si trova in rilievo verranno passate al substrato. Questo si può fare quando lo stampo è planare e il substrato non è troppo grande. Nel caso in cui si voglia rivestire un substrato più grande, si può utilizzare uno stampo rotante (B). Esso è imbevuto, viene fatto ruotare sul substrato e si riesce a depositare l’inchiostro su aree maggiori. Si può anche fare uno stampaggio con substrato non planare: in questo caso è il substrato che viene fatto rotolare e sullo stampo (C). Guardando queste immagini in alto: si è imbevuto il silicone nelle molecole (in questo caso tioli), si è appoggiato sul substrato in oro; vengono trasferite al substrato in oro solo le molecole presenti sulle parte in rilievo dello stampo. 11 Galazzo/Serio 26 Bionanotecnologie (Carmagnola) 29/04/2022 Si ha un gruppo chiolato nel caso dell’oro, con code carboniose e gruppi funzionali che possono essere utilizzati proprio in quanto gruppi funzionali o per ancorare altre molecole. 12 Sogos/Vecchio 27 Bionanotecnologie (Carmagnola) 04/05/2022 Riassunto lezioni precedenti Le scorse volte sono state viste le varie tecniche litografiche: - si è iniziato con la fotolitografia UV e si è visto che la risoluzione che si può ottenere dipende dalla lunghezza d’onda e quindi come sono state introdotte altre tecniche litografiche al fine di ottenere risoluzioni maggiori. - sono state viste la litografia a raggi X e le due litografie che utilizzano particelle cariche, quella che utilizza un fascio di elettroni e quella che utilizza un fascio di ioni. Per queste due tecniche litografiche si è visto che è possibile andare ad incidere il substrato senza l’utilizzo di maschere fisiche, ma andando a direzionare il fascio direttamente sul resist partendo dal disegno CAD. - Si è visto che a queste tecniche litografiche si possono affiancare varie modifiche: ad esempio le varie tecniche che permettono di printare attraverso una maschera, che può essere rigida nel caso di tecniche di nanoimprinting o di materiale elastomerico nel caso della soft lithography. Il concetto è di realizzare uno stampo che può essere utilizzato a sua volta per realizzare altri prodotti con caratteristiche a livello nanometrico. Le ultime tecniche che si vedranno rispetto a questa grande parte di tecniche litografiche sono quelle che vengono chiamate scanning proximal probe lithography. SCANNING PROXIMAL PROBE LITHOGRAPHY Sono tecniche che utilizzano un probe (una sonda o comunque una punta nanometrica) che viene posizionata molto vicina al substrato e possono essere utilizzate sia per fare imaging, sia per andare a modificare direttamente il substrato. Per fare queste due operazioni si sfrutta proprio l’interazione che la punta nanometrica ha con il materiale. Si possono dividere in 3 categorie: - tecniche di probe di prossimità: la principale è la Scanning Tunneling Microscope (STM), permettono di generare un campo elettrico tra la punta e il campione. Caratteristiche di queste tecniche è che sia la punta che il substrato devono essere conduttivi. - metodi meccanici: sono la Scanning (o Atomic) Force Microscope (SFM/AFM, quindi microscopio a forza atomica). In questo caso la punta interagisce meccanicamente con il campione. - metodi ottici: la punta permette di esporre il resist ad un campo, quindi utilizzare la stessa radiazione, ma in questo caso direttamente sul resist senza l’utilizzo di maschera e permette di andare ad esporre aree molto piccole. Si vedranno nel dettaglio le tecniche STM e AFM. 1 Sogos/Vecchio 27 Bionanotecnologie (Carmagnola) 04/05/2022 Scanning Tunneling Microscope (STM) Questa tecnica permette di fare sia imaging che eventualmente modificare direttamente il materiale, in questo caso il substrato deve essere conduttivo. La sonda è una punta nanometrica (un cono di dimensioni nanometriche) di un materiale conduttivo. Viene avvicinata la superficie del materiale e si applica una differenza di potenziale. Le d.d.p. sono piccole, nel range tra -10 e +10 V. Si genera una corrente elettrica tra la punta e il campione, dovuto al passaggio di elettroni tra di essi. Questa corrente è proporzionale alla distanza che la punta ha rispetto al campione: diminuisce se si allontana la punta dal campione. Si fa passare la punta sul campione, si registra la corrente e dai cambiamenti di corrente si riesce a risalire alla morfologia del campione, nel caso si faccia imaging. Si vedrà successivamente come è possibile fare modifica superficiale utilizzando questa tecnica. È una tecnica molto precisa, ma anche molto lenta: sfrutta il fatto di avere sia la punta che il substrato conduttivi e questo implica delle limitazioni, perché non tutti i substrati che si possono andare a modificare sono per forza conduttivi. Per eliminare questa limitazione si può utilizzare la tecnica del microscopio a forza atomica (AFM). Atomic Force Microscope (AFM) È una tecnica ampiamente utilizzata per fare imaging a livello nanometrico e permette di incidere direttamente anche il campione, quindi di andare ad asportare materiale. Questa tecnica, come la STM, si può utilizzare anche per aggiungere materiale sul substrato, quindi fare un processo additivo e essere utilizzata come tecnica di bottom up. Questa tecnica è più versatile perché utilizza interazioni meccaniche e quindi il substrato può essere non conduttivo. Si può utilizzare su substrati normali e su substrati connettivi, su substrati asciutti e su substrati umidi. Si basa sulla presenza di un probe (punta) su un cantilever, cioè una barra a cui è ancorata una punta nanometrica. Si è visto che una delle tecniche maggiormente utilizzate per realizzare le punte dell’AFM è la litografia a fascio di elettroni. 2 Sogos/Vecchio 27 Bionanotecnologie (Carmagnola) 04/05/2022 La punta interagisce con il substrato ed interagendo con esso fa deflettere il cantilever. La deflessione viene misurata con un laser che va a incidere sul cantilever, ogni volta che questo si muove (si flette) cambia l’angolo di incidenza del laser, che viene catturato da un detector. Andando a vedere come si flette il cantilever si riesce a ricostruire la morfologia del campione. Si rivelano quindi i movimenti della punta attraverso il fatto che essa comporta la deflessione del cantilever. La figura a destra è un’immagine classica ottenuta con il microscopio a forza atomica: si ha un substrato la cui area analizzata è 7 µm x 7 µm e si riesce a monitorare la scritta presente su di esso. Visto che si basa sulla deflessione del cantilever si avrà informazione relativa all’ampiezza e alla fase della deflessione. La fase della deflessione permette di avere anche delle informazioni sul tipo di composizione del materiale, quindi permette di capire se un materiale è più o meno rigido e quindi eventualmente cambiamenti di organizzazione del materiale o di diversi tipi di materiale. Ad esempio durante le esercitazioni sono stati visti i poliuretani: questi si organizzano in blocchi soft e hard e con l’AFM, andando ad analizzare la fase, non solo si riesce ad avere la morfologia di un film di poliuretani, ma si riesce a vedere anche la differenza della disposizione delle fasi soft e delle fasi hard. Metodi di utilizzo Ci sono 3 diversi modi di operare con l’AFM, che cambiano in funzione di quello che si vuole ottenere: - contact mode: la punta dell’AFM viene posta direttamente a contatto del campione e viene mossa su di esso. Si ha un contatto continuo tra la punta dell’AFM e il campione. Ha solo uno svantaggio: la punta può rovinarsi e consumarsi, il fatto di avere un contatto continuo tra campione e substrato porta ad un’usura maggiore della punta dell’AFM. - intermittent contact mode (o tapping mode): la punta viene fatta oscillare sul campione con ampiezze abbastanza grandi, quindi tocca il campione solo in determinati punti. Il contatto con il campione non è continuo ma è puntuale, in funzione dei parametri di movimento della punta impostati. - non contact mode: si posiziona la punta in prossimità del campione, si misura una forza di Van der Waals ad una certa distanza e si decide di mantenere costante quella forza. La punta viene fatta muovere sul campione e, in funzione della morfologia del campione, si sposterà al fine di mantenere questa forza costante. Anche in questa modalità si avrà il muoversi della punta, quindi la deflessione del cantilever e quindi l’ottenimento dell’immagine del substrato. 3 Sogos/Vecchio 27 Bionanotecnologie (Carmagnola) 04/05/2022 AFM Nanolitography STM e AFM possono essere utilizzate per fare imaging ma anche per andare ad incidere direttamente il materiale e, soprattutto nel caso dell’AFM, si può fare quella che viene chiamata scratch litography: la punta incide direttamente il materiale lasciandosi dietro una traccia, ottenendo quindi un’immagine in cui si avranno zone di rilievo e zone incise. Con questa tecnica si possono ottenere spessori di 20 nm e profondità di 2 nm. In questo caso la punta è posta direttamente a contatto con il materiale e si impone una forza tale da poterlo incidere (questa forza cambierà in funzione del materiale che si vuole incidere). Il grosso svantaggio della scratch litography è che le punte tendono a rompersi, si ha la rottura della punta dell’AFM. Per evitare la rottura e allungare la vita della punta si può: - andare a rinforzare la punta, ad esempio funzionalizzandola con nanotubi di carbonio e quindi aumentandone le proprietà meccaniche. - indebolire il materiale, soprattutto quando si parla di materiali polimerici questi si possono scaldare al fine che sia necessaria una forza inferiore per poter fare l’incisione. Risposte a domande in aula: - dipende dal materiale che si sta modificando. Nel caso di materiali polimerici si può utilizzare la tecnica di aumentare la temperatura, perché comunque hanno delle Tg a temperature abbastanza basse. Nel caso si voglia andare a scratchare materiali più resistenti si deve passare su una punta funzionalizzata e irrobustita al fine di riuscire a scalfire anche i substrati più resistenti (ad esempio metallici). - gli strumenti per fare AFM e STM sono molto costosi e anche le punte lo sono. Adesso ci sono sistemi molto automatizzati, esistono cantilever con punte direttamente montate o con sistemi in cui si monta la punta in modo molto veloce. L’oggetto che si usura è la punta, mentre il cantilever è una barra che si deve solo flettere e non si hanno deflessioni troppo elevate, per cui rimane a lungo. Tendenzialmente si cerca di preservare le punte. L’AFM della nanolitografia può essere utilizzata anche per depositare strati di ossido. Questi strati di ossido possono essere o direttamente la modifica del materiale, o possono essere utilizzati come lo strato che può essere poi inciso nelle future fasi di etching. Per ottenere gli strati di ossido nel cantilever si sfrutta il fatto che la punta dell’AFM in condizioni umide 4 Sogos/Vecchio 27 Bionanotecnologie (Carmagnola) 04/05/2022 tende a attirare molecole d’acqua e, se è a contatto con il substrato, tende a formare un sottile menisco. Se si applicano dei potenziali alla punta si ha la dissociazione delle molecole d’acqua e quindi la formazione di strati d’ossido. Mentre la punta si muove sul campione, al posto di asportare materiale, deposita un sottilissimo strato di ossido sul materiale che poi può essere utilizzato eventualmente come protezione per i successivi passaggi di etching del campione. Con questo si chiude la parte di litografie e la parte di tecniche top-down. Si vedranno ora le tecniche di bottom-up. NANOFABBRICAZIONE – TECNICHE BOTTOM UP Sono state viste le tecniche che permettono di partire da un substrato bulk, si asporta materiale e si ottiene la nanostruttura, tendenzialmente in sistemi di basso rilievo (si hanno zone a rilievo e zone in depressione). Si vedranno ora alcuni metodi per ottenere materiali nanostrutturati bottom-up, partendo quindi da singoli elementi che vengono assemblati in qualche maniera per ottenere una struttura nanometrica. È già stata vista una tecnica che permetteva di andare a depositare materiale: la litografia a fascio di ioni (FIB). Questa litografia permette sia di andare a rimuovere materiale dal substrato, e quindi agire come le altre tecniche litografiche viste, ma se accompagnata dalla presenza di un precursore di un gas è possibile ottenere deposizione di materiale direttamente sulla superficie e quindi andare ad ottenere strutture tridimensionali sulla superficie del materiale ottenuto utilizzando quel precursore di un gas, che può essere materiale metallico o ceramico. Altre tecniche bottom-up: - DIP-PEN nano litografia: in realtà utilizza l’AFM, quindi le tecniche con il probe per andare a depositare materiale sulla superficie. - Nanofabbricazioni assistite da sistemi biologici: i sistemi biologici possono essere microorganismi (come batteri o virus) o biomolecole (come proteine). 5 Sogos/Vecchio 27 Bionanotecnologie (Carmagnola) 04/05/2022 Scanning Proximal Probes Si vedranno ora gli approcci bottom-up con le tecniche che utilizzano i probe, in particolare si inizierà dall’STM. L’STM è una tecnica che prevede di scansionare il campione con una punta nanometrica (punta e campione conduttivi), si genera una differenza di potenziale tra punta e campione e quindi si ha la generazione di corrente. Questa generazione di campo elettrico può essere utilizzata per manipolare o spostare atomi. In particolare si può avere lo spostamento dei singoli atomi: - lungo la superficie: da un punto della superficie x si sposta in un altro punto x1. In questo caso vengono chiamati processi paralleli. - tra la superficie della punta e il campione (e viceversa): vengono chiamati processi perpendicolari. Nel caso in cui l’atomo sia trasferito dal substrato alla punta si avrà che si toglie materiale dal substrato, nel caso in cui si aggiunga materiale dalla punta al substrato si ha un processo additivo, quindi si genera nuovo materiale sul substrato. La risoluzione di questi processi è del singolo atomo, perché quelli che si spostano sono gli atomi. I processi sono estremamente lunghi. Negli anni ’80 all’IBM è stata sviluppata questa tecnica per muovere materiale e la scritta in figura è stata ottenuta in circa una settimana. È stata ottenuta andando a depositare degli atomi di Xeno su una superficie di Nichel. Proprio perché si va a spostare atomo per atomo il processo è veramente lungo. NANOLITOGRAFIA DIP-PEN (DPN) È una tecnica decisamente più implementata e utilizzata, introdotta alla fine degli anni ’90 dal professor Mirkin dell’Università del Northwestern ed è stata considerata tra le top 100 invenzioni che hanno rivoluzionato il mondo secondo National Geographic. Il principio di questa tecnica è di utilizzare la punta dell’AFM per andare a depositare materiale, come se fosse un inchiostro. Si basa sul fatto che l’umidità dell’ambiente tende ad attaccare la punta: se la punta è in un ambiente umido l’acqua tende ad aggregarsi alla punta e formare il menisco (già visto per la deposizione dello strato di ossido). Se si mette del materiale in una soluzione, questo tenderà a passare dalla punta al substrato o dal substrato alla punta e quindi l’idea è di sfruttare i movimenti di molecole all’interno dell’acqua per andare a depositare materiali sui substrati. 6 Sogos/Vecchio 27 Bionanotecnologie (Carmagnola) 04/05/2022 In figura si ha un esempio con molecole di tioli. Si ha il braccio dell’AFM (il cantilever), la punta e il substrato d’oro. La punta dell’AFM è rivestita con acqua contenente le molecole dei tioli, che si organizzano sul substrato attraverso la formazione del menisco tra la punta e il substrato. Quindi si ha un passaggio delle molecole tra la punta e il substrato. Si ha che il cantilever ha all’interno un reservoir della soluzione viene passato alla punta la punta viene avvicinata al campione si forma il menisco il materiale viene passato dalla punta al substrato. Le risoluzioni che si possono ottenere sono dell’ordine della decina di nanometri. È una tecnica che permette di deporre materiale su un substrato e la risoluzione dipende da: - rugosità del substrato: più il substrato è liscio, più si ottengono risoluzioni migliori. L’ideale è avere substrati flat e lisci. - umidità relativa: minore è l’umidità, maggiore è la risoluzione. Questo perché minore è l’umidità, minore è la dimensione del menisco che si produce tra la punta e il substrato, quindi minore è la dimensione della traccia che viene depositata sul materiale e quindi minore è la dimensione dell’inchiostro depositato sul substrato. - velocità con cui la punta si muove sul campione: solitamente velocità maggiori comportano risoluzioni maggiori. Risposta a domanda in aula: - minore è l’umidità, migliore è la risoluzione. Meno acqua c’è, meno acqua si deposita sulla punta e più piccolo è il menisco che si forma tra il substrato e la punta. Si migliora la risoluzione nel range in cui l’umidità effettivamente permette di deporre, perché a umidità troppo basse (in condizioni praticamente secche) non si ha più la formazione del menisco e non si riesce a deporre il materiale. Nel range di umidità in cui viene permessa la deposizione di materiale, se si è nella parte bassa del range si ottengono risoluzioni migliori. 7 Sogos/Vecchio 27 Bionanotecnologie (Carmagnola) 04/05/2022 Controllo delle dimensioni del pattern - Nell’immagine sono presenti degli spot ottenuti per deposizione di materiale con la tecnica della DIPPEN. Si può notare come il diametro cambia in funzione del tempo di contatto tra punta e campione, quindi in realtà sarebbe la velocità di scansione. Più aumenta il tempo di contatto, più aumenta la dimensione dello spot. Gli spot più grandi sono quelli ottenuti con un tempo di contatto maggiore (fino a 10 s). Con 10 s si hanno spot che hanno un diametro intorno ai 400 nm. Se si va a diminuire il contatto fino a 2 s si ottengono spot di 50 nm (mantenendo costanti gli altri parametri). È un andamento abbastanza lineare. - Si possono cambiare le condizioni ambientali: umidità e temperatura, ma principalmente l’umidità. Nell’immagine il range va dal 30% al 46%, nel grafico arriva fino all’80%, gli spot dell’immagine sono i rispettivi pallini blu del grafico. Se si utilizzano umidità basse (nell’intorno del 30%) gli spot sono di circa 50 nm, aumentando l’umidità fino al 46% si ottengono spot dell’ordine dei 400 nm, aumentando ancora l’umidità si ottengono spot fino ai 1000 nm (1 µm). È un rapporto abbastanza lineare, mantenendo costanti gli altri parametri. In funzione delle dimensioni del pattern che si vuole ottenere, che siano le dimensioni di una linea o degli spot, si possono settare o il tempo di deposizione o l’umidità al fine di ottenere il diametro o le dimensioni geometriche desiderate. - Video mostrato: https://www.youtube.com/watch?v=h3E5Xwm5AKI Si è visto che con la DPN si possono depositare diversi tipi di proteine ed è quindi una delle tecniche maggiormente utilizzate per fare multi-array, quindi deporre proteine, DNA, materiali che poi servono per la sensoristica. Come si può utilizzare il materiale? Fino ad ora si è vista una singola punta che deposita un tipo di materiale, questa in realtà è una tecnica molto lenta e prima di permettere di depositare sistemi più complessi i tempi sarebbero veramente lunghi. Sono stati introdotti gli array di punte: sistemi con molte punte che possono essere utilizzati per fare contemporaneamente più spot o più linee direttamente sul substrato. Sono stati realizzati e utilizzati array anche con migliaia di punte. 8 Sogos/Vecchio 27 Bionanotecnologie (Carmagnola) 04/05/2022 Gli array possono essere: - passivi: array già realizzato con tante punte che vengono imbevute o tutte con lo stesso inchiostro o con inchiostri diversi e poi vengono passati sul substrato. - attivi: array realizzati da punte che vengono attivate indipendentemente, permettono di realizzare strutture più complesse. In generale questa tecnica è utilizzata con i multi-array e quindi con l’utilizzo di più punte per andare a depositare materiale sul substrato. Esempi In figura sono presenti alcuni esempi di morfologie di substrati che si possono ottenere utilizzando questa tecnica. - La figura A è l’immagine al SEM (colorata di verde successivamente) di un array con una penna costituita da 55 000 punte. - L’immagine B è ottenuta al microscopio a fluorescenza e sono delle molecole deposte in questi quadrati, a loro volta funzionalizzate con una molecola fluorescente che permette di essere visionati. La dimensione è di 10 µm, quindi i quadratini sono un po’ più piccoli di 10 µm e sono a loro volta costituiti da tanti spot. - Nella figura C si visualizzano delle nanoparticelle d’oro che sono state ibridizzate con il DNA immobilizzato su un substrato. La tecnica del DIP-PEN è stata utilizzata per deporre DNA sul substrato e poi al DNA sono state fatte ibridizzare nanoparticelle d’oro. - La figura D mostra un pattern di proteine. 9 Sogos/Vecchio 27 Bionanotecnologie (Carmagnola) 04/05/2022 Direct write multiple-DNA inks Un altro esempio: si può andare a deporre più tipi di DNA direttamente su un substrato, utilizzando questa tecnica. Si parte da un substrato che è stato funzionalizzato (silanizzato) ed è stato poi andato ad aggraffare il DNA, quindi è stato fatto un pattern con due diversi DNA che sono stati legati a due molecole fluorescenti diverse (rosse e verdi). Si vede dalla figura come riesce a deporre sul substrato un pattern delle due molecole di DNA utilizzando questa tecnica. DIP-PEN nanolitografia for oncologic screening Tendenzialmente questa tecnica viene utilizzata in sensoristica per detectare sistemi, in particolare come tecnica di screening oncologico. Per andare a determinare la presenza o meno di tumori o verificare se la terapia utilizzata ha efficacia o meno sul tumore, si vanno a detectare quelli che vengono chiamati marker tumorali: sostanze che possono essere presenti nel sangue, nelle urine o in particolari tessuti che tendenzialmente aumentano la loro concentrazione in presenza di cellule tumorali. Sono quelle molecole che vengono utilizzate per andare a fare lo screening e detectare. Allo stesso modo le stesse molecole possono essere utilizzate anche per valutare l’efficacia di una terapia. Con questa tecnica è possibile andare a depositare sul substrato diversi marker tumorali e poi andare a depositare i liquidi da analizzare e capire se effettivamente i marker tumorali si legano ai vari anticorpi che sono stati posizionati sul substrato. Se si vuole detectare un determinato marker si posiziona sul substrato l’anticorpo monoclonale, questo lo posso fare con la tecnica del DIP-PEN, ampiamente utilizzata per andare a depositare proteine o molecole di DNA sulla superficie. Gli anticorpi non sono altro che delle particolari proteine, quindi si possono mettere sulla superficie. Sempre con la stessa tecnica si possono depositare i liquidi e capire se effettivamente i marker sono presenti nel liquido analizzato. Per capire se i marker sono presenti e si sono legati agli anticorpi precedentemente aggraffati sulla superficie si possono utilizzare diverse tecniche: 10 Sogos/Vecchio 27 Bionanotecnologie (Carmagnola) 04/05/2022 - Si può fare la deposizione e utilizzare l’AFM per andare a detectare il profilo della superficie e vedere cos’è successo. - Si può lavorare sull’affinità di molecole o comunque utilizzando molecole fluorescenti. - Si possono utilizzare tecniche che permettono di andare a capire se un materiale è deposto sulla superficie. Una di queste tecniche è la risonanza superficiale plasmonica. Surface Plasmon Resonance Questa tecnica viene impiegata per la rivelazione di deposizione di massa su un substrato. Se sul substrato su cui si sono legati gli anticorpi si va a legare altro materiale (i marker) si avrà un cambiamento di massa superficiale che può essere valutato con questa tecnica. Si utilizza quando si parla di cambiamenti di masse, quindi adesioni di piccole molecole su un substrato. Sono due le principali tecniche che vengono utilizzate: la QCM (microbilancia al quarzo) e la SPR (risonanza superficiale). Danno informazioni complementari, l’ideale sarebbe utilizzarle entrambe. Nel caso della QCM il limite è che l’analisi si fa in real time, in questo caso il substrato deve essere analizzato prima e dopo l’esposizione del substrato al liquido analizzato per determinare la presenza del marker, per cui si utilizza la SPR. La SPR rileva variazioni dell’indice di rifrazione della superficie su un sensore: l’indice cambia se cambia la massa sul sensore. Il sensore è costituito da un substrato di vetro e da un sottile strato d’oro. Viene fatta incidere la luce sul sensore, ad un determinato angolo di incidenza una porzione dell’energia luminosa interagisce con gli strati più superficiali dell’oro e forma il surface plasmon wave (onda di plasmoni). Questo strumento cerca di mantenere sempre presente l’onda di plasmoni. Quando si ha una deposizione di materiale sul sensore si ha un cambiamento di massa che cambia l’indice di rifrazione, quindi lo strumento valuta queste variazioni. L’indice deve essere cambiato perché deve mantenere la presenza del plasmone superficiale. Lo strumento monitora i cambiamenti dell’indice di rifrazione collegati all’aumento di massa sul sensore. In questo caso è stata fatta l’analisi del sensore dopo che è stato immobilizzato l’anticorpo e poi è stata ripetuta l’analisi dopo che è stato esposto al liquido che potrebbe contenere il marker tumorale per quell’anticorpo. Se effettivamente è presente il marker tumorale si ha un 11 Sogos/Vecchio 27 Bionanotecnologie (Carmagnola) 04/05/2022 cambiamento di massa sul sensore, quindi si avrà anche un cambiamento di indice di rifrazione che viene valutato da questa tecnica analitica. In generale il sensore è integrato in un sistema ottico, viene emessa una luce LED che viene fatta passare sul sensore e poi fatta riflettere dalla superficie d’oro. Da questo strumento viene rilevato il cambiamento dell’angolo di incidenza della luce che porta alla formazione del plasmone superficiale, quindi questa tecnica può essere utilizzata direttamente in sensoristica per captare la presenza di marker su una superficie funzionalizzata con un determinato anticorpo. Con questo si conclude la parte della litografia DIP-PEN. NANOFABBRICAZIONE IBRIDA IN NATURA Si vedranno ora una serie di tecniche che prevedono di ottenere nanomateriali, in particolare inorganici, sfruttando l’interazione e l’affinità che questi hanno con determinate strutture organiche o organismi. Questa classe di tecniche e chiamata nanofabbricazione ibrida in natura: ibrida perché permette di ottenere sistemi inorganici sfruttando la loro affinità con determinati sistemi viventi, che possono essere o organismi (batteri e virus) o biomolecole (proteine). Batteri Magnetotattici I batteri vengono utilizzati per produrre anche una serie di materiali non metallici (polimerici), ad esempio una particolare classe di Poliidrossialcanoati vengono prodotti con batteri. I batteri possono essere utilizzati anche per produrre molecole antibatteriche: c’è tutta una classe di surfattanti, che sono molecole antiadesive utilizzate come materiali antibatterici in rivestimenti superficiali, che vengono prodotte da batteri. In questo caso verranno introdotti invece i batteri magnetotattici. In funzione della composizione della parete cellulare i batteri possono essere definiti come GRAMpositivi o GRAM-negativi, i batteri magnetotattici sono principalmente GRAM-negativi. Nel 1963 è stato osservato per la prima volta all’Università di Padova che alcuni tipi di batteri, se sottoposti a campo magnetico, tendevano a muoversi e organizzarsi in funzione del campo applicato. Questi batteri si trovano solitamente nelle transizioni tra acqua e sedimenti. I movimenti in relazione al campo magnetico sono dovuti a delle strutture presenti all’interno dei batteri, che sono materiale inorganico magnetico. 12 Sogos/Vecchio 27 Bionanotecnologie (Carmagnola) 04/05/2022 Questi cristalli di materiale sono organizzati in quelli che vengono chiamati magnetosomi, che sono organelli di materiale magnetico all’interno dei batteri, che permettono ai batteri di allinearsi lungo la direzione di un campo magnetico applicato. La figura a destra è un’immagine al microscopio di questi batteri, le parti evidenziate con le frecce in nero sono i magnetosomi (organelli costituiti da materiali magnetici). Tendenzialmente possono essere prodotti due tipi di materiali magnetici da questi batteri: materiali magnetici da ossido di ferro o da solfuro di ferro, quindi quello che si ottiene all’interno di questi magnetosomi (in natura) sono o magnetite o greigite (ottenuta dal solfato di ferro). Ci sono alcuni batteri che producono solo magnetite o solo greigite, altri che producono indiscriminatamente un tipo e un altro di materiale. I magnetosomi sono organelli che possono avere varie forme e dimensioni e solitamente sono organizzati in maniera ordinata all’interno della cellula, facendo catene, e solitamente se si hanno più catene queste si allineano fra di loro al fine di ottimizzare l’energia magnetostatica che questi materiali comportano. I magnetosomi sono nanometrici, solitamente hanno un range che va da 35 a 120 nm. In funzione della dimensione sono caratterizzati da diverso comportamento magnetico: - nel caso siano in questo range (35-120 nm) sono materiali che a temperatura ambiente sono stabili e riportano massimo dipolo magnetico. - nel caso siano di dimensioni inferiori a 35 nm hanno un comportamento supermagnetico. - nel caso siano di dimensioni maggiori a 120 nm non hanno un comportamento magnetico uniforme perché le interazioni causano una non uniformità del comportamento dei batteri. Che cosa influenza nei batteri la formazione di diverse strutture? In realtà le strutture sono speciespecifico, quindi in funzione del tipo di batterio che le produce si avrà o solo un tipo di materiale o solo un altro, ma dipendono anche dalle condizioni ambientali in cui il batterio cresce. Si vedrà che dipendono dalle concentrazioni di Ossigeno, Ferro e Azoto nell’ambiente. 13 Sogos/Vecchio 27 Bionanotecnologie (Carmagnola) 04/05/2022 In particolare per il ferro i batteri magnetotattici hanno una presenza di Ferro molto maggiore rispetto ai batteri normali, si stima che al loro interno riescano a trattenere fino a un 4% del loro peso a secco. Quindi se vengono disidratati, un 4% può essere costituito da Ferro. Un’altra caratteristica dei magnetosomi è che sono racchiusi da una membrana lipidica, interessante per applicazioni biomediche. Come si formano? Gli step sono: - Formazione di vescicole che mantengono all’interno i magnetosomi; - Uptake del Ferro extracellulare all’interno della cellula; - Trasporto del Ferro all’interno dei magnetosomi; - Crescita dei cristalli minerali, quindi la biomineralizzazione del cristallo. L’ordine in cui avvengono questi passaggi non è chiaro: sicuramente si ha l’uptake del Ferro dall’ambiente extracellulare all’ambiente intracellulare e il trasporto e la biomineralizzazione del Ferro nel cristallo, non si sa però se la membrana si forma prima, durante o dopo la formazione dei cristalli. Risposta a domanda in aula: Solitamente ogni singolo organello va da 35 nm a 120 nm, ma si è visto che poi gli organelli si possono distribuire all’interno dei batteri in strutture più o meno organizzate e lineari. Ci sono poi magnetosomi più piccoli o più grandi. La dimensione in realtà influenza il tipo di comportamento magnetico che questi materiali hanno: i più piccoli (sotto il range dei 30 nm) mostrano comportamenti paramagnetici e invece, da 35 a 120 nm comportamento classico, se sono tanto grandi il comportamento non è omogeneo su tutta la distribuzione dei magnetosomi. In natura, se si prendono i batteri trovati nell’acqua, ciò che influenza la formazione dei magnetosomi è il tipo di batterio che li produce e le condizioni ambientali (quindi quanto Ferro ottiene dall’ambiente e la presenza di Ossigeno e Azoto). Si può pensare ai batteri magnetotattici come a dei piccoli bioreattori, quindi si possono coltivare andando a dare stimoli precisi al fine di ottenere magnetosomi con la composizione voluta, quindi guidare la crescita dei magnetosomi per soddisfare le richieste. La crescita può essere guidata in funzione della concentrazione di Ferro a cui vengono esposti e variando alcuni parametri come il pH e il potenziale redox. 14 Sogos/Vecchio 27 Bionanotecnologie (Carmagnola) 04/05/2022 Andandoli a coltivare in condizioni particolari si ottengono magnetosomi con le caratteristiche desiderate. Nella tabella a destra sono riportate alcune delle potenziali applicazioni che questi magnetosomi hanno in ambiente biomedicale. Un’altra cosa importante dei magnetosomi è la presenza della membrana lipidica che li racchiude. Questo perché in molte applicazioni quello che si vuole ottenere, quando si utilizzano nanocarrier o strumenti nanometrici, è la funzionalizzazione superficiale. Ad esempio rivestirli con molecole target per utilizzarli come sistemi di diagnostica o di terapia. Il fatto di avere già una membrana lipidica facilita questo passaggio, permettendo di andare a modificarli più facilmente al fine di ottenere il sistema desiderato. Batteri Magnetotattici – Terapia termica dei tumori con campi magnetici alternati Si vuole andare ad ottenere una terapia termica perché il problema principale delle terapie oncologiche è costituito dagli effetti collaterali che il farmaco impiegato ha su cellule e tessuti che non siano il target. Se si riesce a prendere delle particelle e portarle direttamente sul tumore, si riesce anche a verificare se queste particelle lo abbiano raggiunto (spions) e se, sollecitate in un modo particolare, si riesce a produrre calore direttamente nel sito del tumore, questo può essere positivo perché si vanno a danneggiare solo le cellule tumorali. Le classi di particelle magnetiche svolgono proprio questo ruolo: - possono essere indirizzate verso le cellule tumorali o da un campo magnetico o funzionalizzate superficialmente e targetizzate verso il tumore. - possono essere visualizzate, ad esempio con la risonanza magnetica è possibile capire se le particelle hanno raggiunto effettivamente il tumore. - una volta determinato il raggiungimento del sito specifico, si può applicare un campo magnetico alternato che fa sì che le particelle si scaldino e quindi si abbia una terapia termica localizzata sul tumore. La controindicazione di questi sistemi è che solitamente le particelle magnetiche ottenute chimicamente hanno effetti abbastanza tossici, quindi si tende a mantenere delle soglie di 15 Sogos/Vecchio 27 Bionanotecnologie (Carmagnola) 04/05/2022 concentrazione molto basse per non avere altri effetti indesiderati. Una concentrazione di particelle basse però si traduce in poco calore prodotto, quindi non sempre la terapia è efficace. Al posto delle particelle magnetiche sintetizzate chimicamente sono stati utilizzati i magnetosomi ottenuti dai batteri magnetotattici. Questo perché si è visto che determinati magnetosomi forniscono più calore, a parità di concentrazione, rispetto alle particelle magnetiche prodotte chimicamente. Inoltre si può sfruttare la membrana lipidica presente naturalmente sui magnetosomi per targettare meglio le particelle verso le cellule target e per eventualmente ancorare sulla superficie un farmaco chemioterapico. In questo caso si potrebbe combinare facilmente la terapia termica utilizzata contro il tumore con un farmaco chemioterapico normalmente utilizzato. Risposta a domanda in aula: I batteri sono già ingegnerizzati? In questo caso i batteri si ingegnerizzano non a livello genetico, ma si vanno a stressare facendoli crescere in determinate condizioni che fanno sì che si ottengano i magnetosomi desiderati con le dimensioni richieste. È un’ingegnerizzazione della coltura in cui vengono fatti crescere i batteri, ma non dal punto di vista genetico. Dal punto di vista genetico si vedrà che potranno essere modificati i virus per portare alla formazione di strutture. Nell’immagine sopra si vede che si parte dal batterio magnetotattico utilizzato (figura a, con le frecce sono indicati i magnetosomi), poi i magnetosomi si organizzano in catene (figura b, catene di magnetosomi estratte dal batterio) o in magnetosomi individuali (figura c). 16 Sogos/Vecchio 27 Bionanotecnologie (Carmagnola) 04/05/2022 Nello studio in figura si è provata la terapia termica utilizzando magnetosomi in catena oppure utilizzando magnetosomi che sono stati separati dalla catena (singoli). Sono stati paragonati i magnetosomi a catena con l’effetto dei magnetosomi individuali e sono stati confrontati anche con delle particelle magnetiche commerciali. Si vedranno solo i risultati riportati per le catene di magnetosomi. L’ultima parte dello studio ha previsto test in vivo su ratto: è stato fatto crescere un tumore sul fianco del topo, sia sul destro che sul sinistro. Su un fianco è stato effettivamente trattato inserendo i magnetosomi e applicando per 3 giorni un campo magnetico alternato: sono stati esposti per 20 minuti ad un campo magnetico alternato, per 3 volte a distanza di un giorno. Nell’altra parte del tumore è stato effettuato il controllo, quindi la stessa terapia con il campo magnetico ma ai topi era stato iniettato solo PBS (soluzione salina). Nel grafico è riportato l’andamento della percentuale di volume di tumore in funzione del tempo. A 30 giorni il tumore, considerando la parte in presenza dei magnetosomi, era decisamente più piccolo rispetto al caso in cui il tumore era stato trattato solo con la PBS. La stessa cosa è stata fatta utilizzando i magnetosomi individuali ed effettivamente si vede che c’è una diminuzione a 30 giorni del volume del tumore anche in questo caso, ma la differenza con la parte trattata con PBS è molto più piccola rispetto a quando si utilizzano i magnetosomi in catena. Sono più efficaci quando utilizzati in catena. In generale, rispetto a questo studio, i magnetosomi funzionano meglio rispetto alle nanoparticelle magnetiche commerciali e si è visto che funzionano meglio se presenti in catena. Questo perché si organizzano in modo da riuscire a conferire maggior calore al tumore e aumentare l’effetto dannoso sul tumore. Risposta a domanda in aula: 17 Sogos/Vecchio 27 Bionanotecnologie (Carmagnola) 04/05/2022 Sicuramente alcuni topi hanno il sistema immunitario compromesso. Vengono utilizzati come modello, sono mammiferi e hanno caratteristiche in comune con l’uomo ma altre no, ad esempio il sistema immunitario del topo è molto diverso. Solitamente i topi sono immunodepressi. Sicuramente tutti i test in vivo devono essere approvati dal comitato etico delle strutture o da quello nazionale, almeno in Italia. Ogni volta che si fa un test in vivo con animali si fa un protocollo che dev’essere approvato dal comitato etico. Il protocollo prevede, tra le altre cose: il numero di campioni utilizzati, si deve spiegare perché si utilizzano n animali e si devono assicurare determinate condizioni tra cui la decisione di come vengano sacrificati (nel caso debbano essere sacrificati). 18 Palladino/Cucco 28 Bionanotecnologie (Carmagnola) 05/05/2022 NANOFABBRICAZIONE IBRIDA IN NATURA BATTERI MAGNETOTATTICI Nella lezione precedente si erano visiti i metodi di alcune tecnologie bottom-up per la realizzazione di nanostrutture. Si era introdotta quindi la classe di tecniche che prendono il nome di nanofabbricazione ibrida, ovvero che sfruttano la capacità di alcune molecole presenti in natura o di alcuni organismi di essere agenti di nucleazione per materiali inorganici, che quindi portano alla produzione di cristalli o comunque strutture nanorganizzate di materiali inorganici. Si era visto l’esempio dei batteri magnetotattici. Essi contengono organelli nanometrici, detti magnetosomi, che sono formati da cristalli di magnetite o gregite (materiali magnetici) inglobati in una membrana lipidica. Questi batteri possono essere utilizzati come micro-bioreattori, per cui andandoli a coltivare in specifiche condizioni si può andare a stimolare una determinata crescita di materiale negli organelli ottenendo magnetosomi con determinate caratteristiche. Queste possono essere sia batterio-specifiche, quindi dipendono dal tipo di batterio che si utilizza, ma possono essere anche condizionate da fattori esterni, come dalla presenza di ioni ferro nell’ambiente in cui vivono i batteri, dalla concentrazione di ossigeno e di azoto ecc. Quindi, variando le condizioni in cui vengono fatti crescere e vivere i batteri si può andare in qualche modo a influenzare la composizione dei magnetosomi. Esempio applicativo: magnetosomi nella terapia termica dei tumori (vedere lezione precedente). NANOFABBRICAZIONE VIRUS – ASSISTITA Si sfruttano i virus, particelle submicrometriche che contengono materiale biologico tra cui anche materiale genetico racchiuso in una capsula proteica, detta capside. Il capside può essere più o meno complessa e può essere costituita da più o meno proteine. I virus possono avere diverse forme: sferici, filiformi, struttura amorfa, strutture composite. Nella lezione di oggi si vedranno, in particolare, le applicazioni per i virus a bastoncello (filiformi) e per quelli più sferici. Si possono sfruttare i batteri come template o scaffold per la nucleazione e crescita di materiale inorganico. Questo perché i loro capsidi, la loro composizione, può essere affine a determinati materiali inorganici e quindi può essere sito di nucleazione per determinati materiali organici. Nel caso in cui si utilizzino batteri filiformi o a bastoncello, si otterranno, facendo nucleare materiale inorganico sul capside, delle strutture nanofilamentose (nanotubi o nanofili di materiale inorganico). Strutture più sferiche invece si sfruttano per far sì che l’interno del capside sia il centro di nucleazione. Si ottengono delle nanoparticelle inorganiche. In questo caso, si può sfruttare il capside o per attaccare qualcosa sulla superficie (andare a inserire sulla superficie altre biomolecole, che possono aumentare il targeting delle nanoparticelle o possono conferire caratteristiche peculiari alle particelle ottenute nel capside) oppure si sfrutta il fatto che il capside 1 Palladino/Cucco 28 Bionanotecnologie (Carmagnola) 05/05/2022 inibisce l’aggregazione delle particelle mentre crescono (quindi si riescono ad ottenere delle particelle ben separate, cosa che può essere critica quando si parla di sintesi di particelle inorganiche per via chimica dove vi è il problema dell’agglomerazione). Quindi, il virus può essere utilizzato o in funzione delle proprie caratteristiche del capside o può essere ingegnerizzato al fine di cambiare la composizione del capside, ovvero andare a inserire nel capside determinate sequenze peptidiche o determinate proteine che fungono da centri di nucleazione di determinati materiali. In questo modo si riesce ad ottenere una struttura che può essere controllata sia dal punto di vista morfologico (che seguirà quello del capside) ma anche composizionale (in cui si possono ottenere materiali diversi). Nella slide riportata, viene rappresentato quasi tutto quello che si può fare partendo da due tipi di virus: Virus filiforme, a bastoncello (M13): agisce sui batteri infettandoli, si possono ottenere anche strutture tridimensionali o cristalli liquidi che possono essere intervallati o mischiati con materiale inorganico (come schematizzato, bastoncelli organizzati e divisi da layer di materiale inorganico, formato su una parte della superficie della membrana del virus); Virus TMV (virus mosaico del tabacco): infetta le piante di tabacco Strutture a gabbia virale: virus con strutture più sferiche in cui la gabbia proteica è usata per la nucleazione all’interno di materiale inorganico. Esempio: VIRUS M13 È stato ingegnerizzato dal punto di vista genetico, quindi è stato modificato geneticamente al fine di esporre sulla superficie determinate sequenze peptidiche. Qui si vede il virus che espone tre diverse sequenze peptidiche (identificate con colori diversi), ognuna di queste sequenze sarà poi centro di nucleazione selettiva per determinati materiali (il colore del materiale è correlato direttamente alla proteina da cui nuclea, al colore della sequenza peptidica). Si possono fare nucleare direttamente sulla superficie del virus diversi materiali inorganici, a patto che il virus venga messo a contatto con i precursori del materiale che si vuole ottenere; dunque a contatto con diversi ioni, le proteine poi fanno da centro di nucleazione e il materiale così cresce in determinate posizioni. 2 Palladino/Cucco 28 Bionanotecnologie (Carmagnola) 05/05/2022 Se si effettua la fabbricazione di nanofili usando il virsu M13, si ottiene quello riportato nella figura sottostante. Nell’immagine in alto è presente il virus M13 in cui è stata utilizzata una proteina per fare nucleare sulfuro di zinco in superficie. Andando a ingrandire, si nota che sulla superficie sono presenti tante strutture nanoparticellari, quindi il materiale inorganico è nucleato in diverse posizioni del capside, tanti centri di nucleazione fino ad ottenere la copertura intera del virus. Altra opzione è usare l’interno del capside come centro di nucleazione. Anche in questo caso, si possono usare strutture più sferiche in cui la struttura con il capside funge da gabbia in cui possono nucleare, in funzione di composizione e forze elettrostatiche presenti all’interno del capside, diversi materiali inorganici. Anche qui, sia modificando la composizione del capside o modificando le interazioni elettrostatiche (cambiando ad esempio il pH), si possono ottenere sia forme sia direzioni di cristallizzazione diverse del materiale che si sta formando sul capside. Le particelle ottenute saranno limitate dal capside per le dimensioni. Nel caso del virus M13, i cristalli singoli ottenuti hanno una dimensione pari a circa 26 nm (diametro del capside, del virus). Si sfrutta il virus nella composizione finale prima che vada ad infettare qualcos’altro. Le membrane lipidiche dei magnetosomi possono essere sfruttate anche per andare a modificare le particelle. Anche in questo caso, si sfruttano i capsidi virali per andare ad ancorare sulla superficie determinate biomolecole (farmaci o sequenze peptidiche che danno un targeting specifico verso la struttura che si è ottenuta). Quindi, si possono sfruttare le caratteristiche della membrana per funzionalizzare ulteriormente il materiale che si sta ottenendo, per cui aumentarne il target e il delivery. Nel caso dei virus filiformi, si possono organizzare in strutture tridimensionali con diverse geometrie che possono essere o senza cristalli o con cristalli e poi si possono ottenere in questo modo i cristalli liquidi, sia a livello tridimensionale sia a livello bidimensionale. Da ricordare per la nanofabbricazione assistita da virus: Anche in questo caso si può andare a ingegnerizzare il virus per ottenere un materiale inorganico nanostrutturato con determinate caratteristiche. Quindi, poi risalendo si può andare a modificare il processo modificando la composizione del virus o selezionando determinati virus per ottenere quello il materiale richiesto. 3 Palladino/Cucco 28 Bionanotecnologie (Carmagnola) 05/05/2022 Esempio: virus mosaico del tabacco (TMV) Anche in questo caso si ha una struttura filiforme cava, quindi la nucleazione può avvenire sia internamente sia esternamente. Per cui il materiale si può deporre sia sulla superficie che internamente. Nella slide sono riassunti alcuni processi che si possono fare partendo dallo stesso virus per ottenere composizioni e materiali diversi. Dal momento che si parte da un virus filiforme, si otterranno nanofili o nanotubi di materiale inorganico. NANOFABBRICAZIONE PROTEINA – ASSISTITA Non solo organismi, ma anche biomolecole. In questo caso si sfrutta l’alta affinità della proteina (ad esempio tra anticorpo e antigene) per andare a organizzare in modo predefinito dei materiali inorganici. Si possono andare ad usare anche altri tipi di proteine rispetto a quelle riportate nella slide, l’importante è che siano altamente affini e selettive in modo da determinare il corretto assemblamento del materiale metallico. Partendo dalla prima riga, si hanno delle nanoparticelle di oro che devono essere organizzate in strutture più o meno complesse (matrice in figura A). In questo caso, le particelle d’oro sono state rivestite con un anticorpo. L’antigene affine all’anticorpo è stato utilizzato come link per unire più particelle d’oro. Quindi a un solo antigene si possono linkare, dal momento che ha due siti affini 4 Palladino/Cucco 28 Bionanotecnologie (Carmagnola) 05/05/2022 all’anticorpo, due diverse particelle d’oro. Andando poi ad assemblare più componenti si riesce ad ottenere una struttura complessa a griglia (come riportato). Si possono usare antigeni che siano affini a diversi anticorpi. In questo secondo caso si ha un antigene affine a due diversi anticorpi e particelle d’oro, alcune funzionalizzate con un anticorpo, altre con l’altro anticorpo. Quello che si ottiene è la stessa configurazione ottenuta in precedenza perché da entrambe le parti dell’antigene quello che si lega sono comunque molecole di oro, indipendentemente dall’anticorpo che si è utilizzato. L’antigene più complesso, quello affine a più di un anticorpo, può essere sfruttato per andare a unire diversi materiali. Nell’esempio (terza riga) è riportata una particella di oro che è funzionalizzata con un anticorpo e una di argento funzionalizzata con l’altro anticorpo, affine all’antigene. Quindi, ogni antigene si legherà a una molecola di argento da una parte e ad una particella di oro dall’altra. In questo modo si ottiene una matrice più complessa in cui sono messi in modo alternato oro e argento. L’importante è selezionare proteine che siano altamente selettive e affini alla molecola che è stata posizionata sul materiale inorganico. In questo modo si riescono ad ottenere strutture organizzate. Nell’immagine è riportato l’esempio precedente (particelle d’oro che possono essere unite con l’utilizzo di una proteina). Si ha nell’immagine A una soluzione colloidale di particelle d’oro, che quindi sono distribuite nella soluzione e sono state rivestite con l’anticorpo. Quando si aggiunge l’antigene per quell’anticorpo, le particelle tendono ad unirsi perché l’antigene lega a due particelle di oro. Quello che si riesce ad ottenere, sfruttando l’interazione dell’antigene con l’anticorpo legato alle particelle d’oro, sono strutture filamentose d’oro realizzate dall’unione di tante particelle, ognuna delle quali è legata alle altre dall’antigene. Questo conclude la parte relativa alle tecniche di nanofabbricazione che sfruttano organismi e molecole presenti in natura. Ognuna di queste tecniche in realtà aprirebbe un mondo, quindi si potrebbe fare un corso su ognuna di queste tecniche. In questa lezione si è data un’idea della possibilità di poter fabbricare sistemi nanostrutturati partendo da materiali presenti in natura. 5 Palladino/Cucco 28 Bionanotecnologie (Carmagnola) 05/05/2022 ELECTROSPINNING NOTA: la parte dell’electrospray non sarà trattata a lezione, per cui non sarà presente all’esame. Finora si sono viste una serie di tecniche che permettono di andare a processare materiali che non erano polimeri. Nel senso che si sono viste le lavorazioni del resist (resist polimerici) però in realtà il resist non è il prodotto finale, è solo un template sacrificale per ottenere poi la morfologia su un substrato. È stata vista tutta la parte di produzione di strutture inorganiche. Per i polimeri si è vista la parte di soft litography, che permette di ottenere uno stampo in materiale elastomerico partendo da un master ottenuto partendo con la fotolitiografia, e si è accennato alla tecnica della litografia a due fotoni, che permette di disegnare il resist in struttura tridimensionale ottenendo alla fine una struttura polimerica. Per quanto riguarda il processamento a livello nanometrico dei polimeri, una delle tecniche di eccellenza è l’electrospinning. Esso permette, partendo da una soluzione polimerica a cui viene applicata alta tensione, di ottenere strutture fibrose collezionate su un collettore. L’alta tensione fa sì che si producano delle correnti che portano a stirare la soluzione polimerica. In questo modo si parla di electrospinning classico, esistono anche altre implementazioni della tecnica. Ad esempio, si può partire da polimeri fusi (melt-electrospinning) quindi con polimeri che vengono portati alla temperatura di fusione (o a una temperatura prossima a questa). Oppure, la tecnica può essere implementata con un sistema CAD, ovvero può essere implementata per diventare una tecnica di additive manufacturing, che sono quella classe di tecniche che partono da un disegno CAD e la tecnica permette di processare il materiale al fine di ottenere il prototipo che rispecchia il disegno CAD. Anche in questo caso si può unire la tecnica dell’electrospinning partendo da un disegno CAD, quindi al posto di deporre in modo più o meno casuale le fibre, queste possono essere deposte secondo una determinata geometria (melt-electrowriting). ELECTROSPINNING CLASSICO La tecnica classica prevede di partire da soluzioni e può essere anche chiamata elettrofilatura. Si differenzia dalle altre tecniche di filatura dalla dimensione delle fibre che si ottengono: esse sono a livello nanometrico (1-2 μm fino a diametri inferiori a 100 nm). Le altre tecniche di filatura prevedono fibre con diametri dell’ordine dei micrometri e si utilizzano principalmente in ambito tessile. Si applica una tensione che stira la soluzione polimerica fino a far sì che sul collettore, dove vengono raccolte le fibre, si ottengano delle fibre a livello nanometrico. Le fibre possono essere prodotte in modo random, quindi si possono deporre in modo casuale sul collettore, o possono essere allineate. Le caratteristiche delle nanofibre ottenute con questa tecnica sono: Diametri molto piccoli, fino a diametri inferiori a 100 nm (limite inferiore); 6 Palladino/Cucco 28 Bionanotecnologie (Carmagnola) 05/05/2022 Grande area superficiale che fa sì che questa tecnica sia molto sfruttata nel rilascio di farmaco, in realtà è usata in un gran numero di applicazioni; Pori con dimensioni piccole (micrometrici). Si ottengono strutture tipo membrane, quindi quasi bidimensionali (l’area è molto più grande rispetto l’altezza. A occhio nudo la membrana è compatta, ma vista al microscopio la deposizione di tante nanofibre fa sì che sia anche porosa. CONFIGURAZIONE L’electrospinning è costituito da una pompa, una siringa, un collettore e un generatore di tensione. La pompa permette l’inserimento della siringa che contiene la soluzione polimerica e consente di impostare un determinato flusso alla soluzione (ml/h, h=ora). La siringa è il sistema in cui viene inserita la soluzione ed è caratterizzata da una punta metallica, perché deve essere conduttiva. Il generatore di tensione applica la tensione tra la punta della siringa e il collettore. Il collettore, come la punta della siringa, deve essere metallico. Questo può essere costituito sia di metallo sia di materiale polimerico (plexiglass), di solito è rivestito di uno strato di alluminio su cui vengono collezionate le fibre poi raccolte. COME SI FORMA LA FIBRA? Stesso setup visto, qua il tubo porta la soluzione dalla siringa all’ago. All’interfaccia dell’ago si viene a formare il cosiddetto cono di Taylor. Ovvero si ha la formazione della goccia che fuoriesce dall’ago, quando si applica la tensione si ha la produzione di cariche sulla goccia. Nel momento in cui la forza delle cariche supera la tensione superficiale del polimero, la goccia tende ad assottigliarsi e si forma il cono. Dal cono poi parte il filo che si assottiglierà sempre più fino a depositarsi al collettore. Il cono di Taylor lo si era già visto perché è la stessa tecnica che si utilizza per la produzione del fascio di ioni nella tecnica FIB. In quel caso, il fascio di ioni viene prodotto principalmente partendo 7 Palladino/Cucco 28 Bionanotecnologie (Carmagnola) 05/05/2022 da un metallo liquido (gallio) posizionato su una siringa con un ugello da cui viene fatto fuoriuscire e a cui è applicata una tensione. Anche in quel caso, quando la tensione supera la tensione superficiale del gallio, si forma il cono e dando ancora energia i legami di gallio si rompono e si forma il fascio di ioni. In questo caso, si ha la formazione del filo, quindi del getto. Esso si propagherà nella distanza tra ugello e collettore, in questa fase sarà soggetto a una serie di eventi che fanno sì che si riduca la quantità di solvente (che evapora) e la dimensione delle fibre (si assottigliano fino al valore nanometrico desiderato). La distanza tra ago e collettore può essere variata e in base ad essa dipendono l’evaporazione del solvente e lo spessore delle fibre. Nel caso il collettore fosse piano basta impostare la distanza, se il collettore è invece un cilindro posto in rotazione si deve andare a impostare la rotazione del cilindro. Processo: si prepara la soluzione con le caratteristiche richieste, caricata sulla siringa, messo a contatto per avere la forza di spingere la soluzione e si imposta il flusso. Poi si fa partire la pompa, dalla siringa inizierà a uscire della soluzione polimerica. Si misura la distanza tra ago e collettore, parametro che si varia per ottenere fibre più o meno grandi e per garantire la completa evaporazione. Per raccogliere le fibre si usa un foglio di alluminio posizionato sul collettore. Nel caso di un collettore piano si mette solo distanza, se invece si parla di un cilindro in rotazione si deve anche impostare la rotazione del cilindro. Per iniziare l’electrospinning si fa partire la pompa e si collegano i due morsetti per garantire la tensione (morsetto + all’ago e morsetto – al collettore), quindi si imposta la tensione che bisogna usare (ordine dei kV, in alcuni casi anche superiore a 30 kV). La tensione fa in modo che la soluzione venga spinta verso il collettore. In realtà, non si riesce a vedere ad occhio nudo cosa succede al getto. Di solito a occhio nudo si riesce a vedere se è corretta la formazione del cono di Taylor e le fibre che si raccolgono sul collettore (alone bianco che compare). Le fibre che si ottengono si possono vedere come una membrana compatta e bianca depositata su un foglio di alluminio. In realtà la membrana è costituita da nanofibre come ben si sa, nanostrutture. ELEMENTI DELL’ELECTROSPINNING IL CAPILLARE Il capillare è l’ugello da cui fuoriesce la soluzione. Questi sono degli aghi che possono essere usati o con punta piatta o con punta tagliata in trasversale e hanno dimensioni molto piccole (diametri diversi in funzione del prodotto finale che si vuole ottenere). Se si utilizza l’ago semplice, si ottengono delle fibre piene di un solo materiale. Se si vogliono ottenere delle fibre bicomponente, si possono usare degli aghi che hanno due canali in cui in ognuno arriva un tipo di materiale che vanno a confluire nell’ago. Quindi, uscirà una miscela composta dai due materiali. Condizione necessaria per poter 8 Palladino/Cucco 28 Bionanotecnologie (Carmagnola) 05/05/2022 utilizzare questo tipo di aghi è che le due soluzioni polimeriche che si inseriscono devono avere condizioni di spinnabilità molto simili perché usando un solo capillare formato da due canali, tutti gli altri parametri sono uguali. Per cui si devono poter processare usando gli stessi parametri. Se sono due polimeri che si processano usando parametri molto diversi, non si riesce ad ottenere il risultato finale in quanto si impostano i parametri per elettrospinnare un polimero o l’altro, non si possono spinnare contemporaneamente. Le fibre che si ottengono possono essere anche cave usando aghi coassiali, ovvero ci sono due aghi uno interno all’altro (ago dove dentro c’è una struttura vuota). Possono essere usati, nel caso in cui le due cavità sono separate da una membrana, anche per produrre fibre bicomponenti con la shell fatta di un materiale e il core fatto di un altro materiale. Le fibre bicomponenti sono molto usate nel rilascio di farmaci. 3 tipi di aghi per ottenere 3 differenti morfologie. All’aumentare della tensione aumentano le cariche sulla soluzione polimerica. Quando queste superano la tensione superficiale si forma il cono di Taylor e il getto. Il getto ha dimensioni abbastanza grandi (come 500μm, riportato nell’immagine) rispetto alle dimensioni nanometriche delle fibre che si ottengono. Questo dipende dal fatto che nel processo dalla formazione del getto alla raccolta nel collettore il getto sarà sottoposto a una serie di instabilità che portano a due fenomeni: evaporazione del solvente e assottigliamento della fibra. Si può utilizzare un unico ugello o più ugelli in parallelo. Gli ugelli in parallelo servono per: 1. Spinnare lo stesso materiale, quindi andare a coprire un’area maggiore del collettore per velocizzare il sistema; 2. Depositare diversi materiali, ottenendo fibre di diversi materiali. ZONE DEL GETTO Una volta che si forma il getto, questo è sempre sottoposto alla presenza di cariche elettriche. Quando le cariche elettriche diventano più alte delle forze di coesione del getto, questo si divide in più getti. Ogni singolo getto ha più o meno lo stesso diametro e la stessa carica e andrà a deporsi sul substrato seguendo la propria zona di instabilità. Ogni getto si divide in più getti e depone, seguendo la propria zona di instabilità, sul collettore. Se si impostano correttamente i diametri, si dovrebbe ottenere la deposizione di fibre che hanno diametri omogenei (distribuzione di diametri omogenea). 9 Palladino/Cucco 28 Bionanotecnologie (Carmagnola) 05/05/2022 Quando avviene l’assottigliamento, sempre perché soggetto alle cariche elettriche, il getto inizia ad avere una zona di instabilità, come riportato nella slide. In questa zona, il getto inizia a descrivere traiettorie a spirali crescenti. In questa fase, in cui il getto è sottoposto a queste spirali crescenti, esso si assottiglia sempre di più e continua l’evaporazione del solvente. Alla fine di queste zone di instabilità si ha il collettore, quindi il punto in cui le fibre vengono raccolte. In funzione della distanza in cui il collettore viene posizionato ci si può trovare in una di queste zone: Se si è troppo vicini alla punta, le fibre che si depositano sono grandi perché non sono state ancora stirate abbastanza dalla tensione e il solvente non è completamente evaporato. L’incompleta evaporazione del solvente comporta che le fibre vadano poi ad appiattirsi e a perdere la loro struttura tubolare che le caratterizza. Si ottengono i cosiddetti nastri. ZONA DI RACCOLTA – COLLETTORE Il collettore può essere: Piano, quindi portare alla deposizione di fibre random, ovvero matasse di fibre disorganizzate. La deposizione dell’electrospinning può essere orizzontale o verticale. Quando si pensano verticalmente, si ha la siringa posizionata in verticale posizionata sulla pompa che ha il generatore e il collettore è posto in orizzontale. In ogni caso, le due configurazioni hanno la stessa funzione e portano agli stessi risultati (vantaggi e svantaggi più pratici). Per ottenere invece fibre allineate si possono usare più metodi: o Collettore cilindrico messo in rotazione. In questo caso le fibre seguono la rotazione e si allineano. In questo caso si deve impostare la velocità di rotazione del cilindro, che di solito sono nell’ordine delle centinaia di giri al minuto fino a circa 5000 rpm. o Aste metalliche parallele. Se le due aste sono entrambi conduttrici e sono collegate alla tensione, le fibre tendono a fare ponte tra le due aste e quindi si allineano. Rispetto alle aste, si possono mettere anche sistemi circolari paralleli e anche in questo caso le fibre tendono a fare ponte tra i due sistemi, utilizzare due anelli. Il parametro da impostare, in questo caso, è la distanza tra i due elementi che deve essere tale da garantire effettivamente che le fibre si dispongano a ponte e quindi si allineino, in ogni caso esiste un valore soglia di distanza oltre la quale le fibre si rompono (per fare ponte si stirano troppo). È possibile effettuare anche delle strutture gerarchiche, ovvero andare a combinare più tecniche. 10 Palladino/Cucco 28 Bionanotecnologie (Carmagnola) 05/05/2022 Nel caso riportato la struttura gerarchica è un filo micrometrico formato da tante fibre nanometriche. Questa struttura si ottiene partendo dalla deposizione di fibre parallele su due collettori circolari messi uno vicino all’altro parallelamente. Quindi, per prima cosa le fibre si orientano tra i due collettori. Una volta che sono state raccolte le fibre parallele, uno dei due supporti viene messo in rotazione. Questo fa sì che si attorciglino le fibre che si sono appena ottenute. Quello che si ottiene è un filo del diametro di 4.7 μm che in realtà è composto da fibre nanometriche attorcigliate, l’effetto ottenuto è quello del gomitolo di lana. La struttura è gerarchica perché ha dimensioni micro e nano metriche. DIFETTI DI FILATURA I difetti principali che si ottengono quando si processa un polimero con electrospinning sono: Beads: i più comuni, sono dei rigonfiamenti all’interno della fibra. Per cui la fibra non è omogenea ma in alcune parti è rigonfiata quindi c’è una deposizione di materiale maggiore. Nastri: le fibre deposte non mantengono la loro struttura circolare perché quando vanno a contatto con il collettore è presente ancora della soluzione, questo fa sì che il materiale non è completamente solidificato e le fibre tendono ad appiattirsi e a non mantenere la loro forma circolare. Difetti superficiali: microfibre che si inseriscono tra le altre fibre, con effetto ragnatela. Teoricamente con l’electrospinning si vuole ottenere fibre prive di difetti, omogeneamente distribuite dal punto di vista dei diametri, distribuzione molto stretta, molto vicina al valore medio. Cosa influenza la presenza o meno degli effetti e le dimensioni che si ottengono? L’electrospinning è un processo molto complesso in cui entrano in gioco molte variabili che devono essere combinate nel modo corretto al fine di ottenere una membrana nanostrutturata con le caratteristiche richieste. 11 Palladino/Cucco 28 Bionanotecnologie (Carmagnola) 05/05/2022 I parametri si possono dividere in due grandi categorie: 1. Parametri di sistema: sono legati principalmente al polimero e al solvente (soluzione polimerica) a. Peso molecolare; b. Struttura del polimero (lineare o ramificato); c. Proprietà della soluzione (viscosità, conducibilità, tensione superficiale). 2. Parametri di processo: sono legati al sistema di electrospinning a. Potenziale elettrico applicato; b. Distanza tra ago e collettore; c. Flusso della soluzione polimerica impostato nella pompa, ci dice quanta ne esce all’ora; d. Parametri ambientali (temperatura, umidità, velocità di aspirazione dell’aria nella camera o in presenza di materiali tossici o per facilitare l’evaporazione del solvente), esistono sistemi dove il processo avviene in una cappa chiusa per controllarli perché influenzano tantissimo il processo; e. La movimentazione dello schermo di raccolta, collettore (presente solo in determinate situazioni), movimento di collettore tipo cilindro rotante o sistemi che permettono al collettore di muoversi per rivestire aree più grandi. Anche nel caso di collettori piani: possibile averli che si muovono per collezionare in modo omogeneo, anche di spessore finale di membrana, il collettore. EFFETTI DEI PARAMETRI DI SISTEMA: legati alla soluzione polimerica Molto spesso legati tra loro, concentrazione e viscosità, per esempio. Concentrazione: esiste una concentrazione minima al di sotto della quale non è possibile avere processo di electrospinning ma si ottiene un processo di electrospray dove anziché depositare fibre continue sul collettore, si ha un processo discontinuo che prevede deposizione di particelle disperse più o meno omogeneamente. Limite superiore: limite oltre il quale la soluzione è eccessivamente concentrata e non si riesce a far partire direttamente il processo (polimero troppo pesante da far partire il getto), si evapora il solvente, si forma una crosta di polimero sull’ugello e il processo si blocca. Dunque troppo viscosa per garantire un processo continuo perché nel momento in cui evapora il solvente, il polimero resta attaccato all’ago e si crea un tappo all’uscita dell’ugello. Viscosità: molto simile alla concentrazione. Livello soglia che permette di ottenere electrospinning: viscosità troppo basse non si formano fibre continue, mentre a viscosità troppo elevate il getto polimerico ha difficoltà a formarsi. Spesso è correlata alla concentrazione. Tensione superficiale: dipende principalmente dal solvente. Se si riduce, solitamente si riducono i difetti perché la formazione del cono di Taylor è più omogenea. Se si ottengono tensioni superficiali elevate, il getto non è stabile e si possono formare difetti come i beads. Conduttività: dipende dal tipo di polimero e dal tipo di solvente. Rispetto alla tensione superficiale, può essere modificata aggiungendo, ad esempio, sali in soluzione. Aumentando la conduttività della soluzione, questa sarà più soggetta alla tensione che si 12 Palladino/Cucco 28 Bionanotecnologie (Carmagnola) 05/05/2022 sta imponendo e quindi il filo si assottiglia di più, ottenendo dunque fibre più fini. Se è troppo alta o troppo bassa si formano fasi di instabilità, quindi dei difetti. EFFETTI DEI PARAMETRI DI SISTEMA: proprietà del polimero Peso molecolare: a parità di materiale, il peso molecolare influenza la viscosità, la tensione superficiale, la conduttività. In generale, si predilige per il processo di elettrofilatura polimeri con pesi molecolari abbastanza elevati. Questo deriva dal fatto che pesi molecolari maggiori implicano il fenomeno di entanglement, ovvero degli attorcigliamenti della catena che permettono di ottenere un getto stabile, quindi un processo continuo e stabile con la formazione di meno difetti. Dunque, a parità di polimero, si prediligono polimeri con pesi molecolari più alti. Struttura del polimero: si preferiscono polimeri lineari piuttosto che ramificati. Visto che c’è una serie di parametri da impostare, sia di sistema sia di processo, se si deve processare un polimero ramificato, andando a variare gli altri parametri si riesce comunque ad ottenere una produzione di fibra omogenea e stabile anche con strutture polimeriche che non sono del tutto adatte per questa tecnica di electrospinning. EFFETTI DEI PARAMETRI DI PROCESSO Voltaggio: esiste un valore minimo sotto al quale non si ottengono fibre continue, il processo continuo di electrospinning. Esiste dunque un voltaggio minimo al di sopra del quale le fibre possono formarsi. Aumentando il voltaggio al di sopra della soglia minima, le fibre mostrano inizialmente diametri progressivamente minori (in quanto crescono le forze repulsive all’interno del getto che ne favoriscono l’assottigliamento). Ad alti voltaggi si possono avere effetti di instabilità, che si riscontrano in fibre non omogenee (distribuzione dei diametri delle fibre molto ampia) e presenza di beads. Alcuni autori hanno evidenziato che ad alti voltaggi si può avere un aumento dei diametri causato dalla maggiore quantità del getto eiettata. Flusso: velocità impostata dalla pompa, di fuoriuscita della soluzione. Influenza la velocità del processo e il diametro delle fibre. Flussi maggiori: tempi di fuoriuscita maggiori ma comportano anche diametri di fibre maggiori. A bassi flussi, il processo è più lento (tempi di produzione più bassi) ma si ottengono fibre più piccole (meno materiale che esce dall’ugello) in quanto ciò consente l’evaporazione del solvente prima che le fibre raggiungano il collettore. Se il flusso è eccessivo, fibre più grandi ma vi è il rischio che non tutto il solvente evapori nel tratto tra ago e collettore (fenomeno dei nastri) o comunque con difetti (beads). Il diametro delle fibre e i pori delle membrane elettrofilate crescono al crescere del flusso. Distanza della punta del collettore: Stessa cosa è la distanza tra siringa e collettore, maggiore è la distanza più si ottengono fibre sottili, se troppo distante si ottengono fibre discontinue, se collettore troppo vicino alla punta dell’ago fibre più grandi con rischio di presenza ancora del solvente: formazione di nastri poiché il materiale non è indurito, può adattarsi e tende ad appiattirsi. Esiste una distanza minima al di sotto della quale le fibre non possono formarsi perché il solvente non ha tempo di evaporare. 13 Palladino/Cucco 28 Bionanotecnologie (Carmagnola) 05/05/2022 TABELLA RIASSUNTIVA Ultimi tre parametri dovuti alla soluzione polimerica. Per ognuno di questi parametri un range dove abbiamo un processo di electrospinning stabile per ottenere fibre stabili, fibre più o meno grandi; al di fuori non è più stabile e non riesco dunque più ad ottenere fibre omogenee e prive di difetti. Poi ci sono valori soglia inferiori e superiori che inibiscono, limitano il processo e ne impediscono la buona riuscita. POLIMERI (sono i materiali processati) I polimeri usati nell’electrospinning sono diversi: Polimeri sintetici: possono essere processati sia con l’electrospinning normale da soluzione ma anche con l’electrospinning da fuso (melt-electrospinning) e il melt-electro-writing (electrospinning a cui è associata la morfologia specifica dettata dal disegno CAD). o Poliammidi o Poliolefine o Poliestere o Fibre di aramide o Poliacrilati Polimeri naturali: processati solo con l’electrospinning normale in quanto si usano soluzioni, spesso acquose, e non possono essere trattati termicamente perché andrebbero incontro a degradazione e denaturazione con conseguente perdita delle proprietà. o Proteine (collagene, fibrina ecc.) o Polisaccaridi (chitosano p.e.) o Polipeptidi (gelatina, seta) 14 Palladino/Cucco 28 Bionanotecnologie (Carmagnola) 05/05/2022 Alla soluzione polimerica possono essere ad esempio aggiunte particelle inorganiche (oro, argento ma anche applicazioni sull’osso inserendo internamente idrossiapatite) ottenendo così scaffold compositi. APPLICAZIONI (anche non biomedicali o legate a quest’ultime) Rinforzo per materiali compositi Filtrazione Si sfrutta il fatto di avere delle porosità tali che permettono di far passare ad esempio aria (nel caso di filtri per aria compressa), ma sono così piccole da bloccare eventuali impurità o residui di olii o di processi che hanno dimensioni piccoli ma non così piccoli da passare oltre le membrane elettrospinnate. Applicazioni come abbigliamento protettivo Applicazioni ottiche ed elettriche Applicazioni biomedicali o Si possono usare per la realizzazione di protesi intere, come nei graft vascolari in cui il polimero è elettrospinnato su un collettore cilindrico la cui dimensione esterna è pari al lume interno del vaso. o Oppure le membrane elettrospinnate possono essere usate come coating di altri dispositivi, altre protesi, al fine di migliorarne l’integrazione con i tessuti, come nel caso delle protesi d’ernia che sono reti macroscopiche in polipropilene che possono essere poi rivestite con electrospinning. o Nell’ingegneria tissutale è ampiamente utilizzata nella realizzazione di scaffold perché la struttura fibrosa ottenuta con l’electrospinning mima la struttura fibrosa delle componenti della matrice extracellulare. Inoltre, non tutte le morfologie delle matrici extracellulari sono uguali, alcuni tessuti hanno delle strutture allineate e con la tecnica dell’electrospinning si possono allineare le matrici extracellulari con determinate topografie come quella del cuore, del tessuto nervoso o dei muscoli. o Possono inoltre essere usate per la creazione di patch per la cura delle ferite, cerotti e bande. Anche in questo caso viene sfruttata soprattutto la struttura microporosa che permette un buono scambio di essudati e di nutrienti. o Possono essere usati come sistemi di rilascio di farmaci o nella cosmetica per la realizzazione delle maschere per la pelle. o Con la pandemia, si è usata per la realizzazione di nuovi tessuti per le mascherine. 15 Casari/Ferraro 29 Bionanotecnologie (Ciardelli) 05/05/2022 BioMEMS (Biological Micro-Electro-Mechanical Systems) In questa sezione si parlerà dell’applicazione delle nanotecnologie a sistemi biologici, per progettare sistemi ingegnerizzati, ovvero si parlerà di sistemi biologici Micro-Elettromeccanici (BioMEMS). Ci si occuperà principalmente di sensori, cioè di rilevazione e riconoscimento di molecole e/o fenomeni biologici a scopo terapeutico e prevalentemente diagnostico. Un biosensore è un sensore che ha come interfaccia incaricata di rilevare il segnale (variazioni nell’ambiente circostante) una molecola biologica. In analogia con i biosensori alla macroscala, i bioMEMS sono dotati di elementi di riconoscimento che in questo caso sono, appunto, delle molecole. Le nanotecnologie hanno il pregio di portare il dimensionamento del sensore su scala molecolare: non solo l’elemento sensibile è su scala molecolare, ma lo è tutto il sensore. I sensori possono essere suddivisi secondo la classe della molecola che costituisce la parte sensibile del sistema: - - - Bioriconoscimento enzimatico → ad esempio, il sensore per la misura della glicemia contiene glucosio-ossidasi (enzima che converte il glucosio in acido gluconico) e mediante una reazione redox può essere rilevata tramite l’interfaccia del sensore e poi il trasduttore dà il segnale. Bioriconoscimento con anticorpo, dunque immunologico (detti anche immunosensori) Metodi utilizzanti DNA per il riconoscimento dei geni → hanno permesso di riconoscere geni e sequenziare il genoma, dando un forte contributo allo sviluppo di nuove terapie → ci si soffermerà principalmente su questi Metodi di riconoscimento che utilizzano cellule e tessuti come elementi sensibili di sensori → utilizzati, ad esempio, per testare la tossicità di una sostanza. In tutti questi sistemi si sfrutta il fatto che la natura ha sviluppato queste modalità di riconoscimento selettivo: l’enzima riconosce il suo substrato, l’anticorpo riconosce il suo antigene, una singola catena di DNA riconosce la sua catena complementare. Rilevamento del DNA – PCR La PCR è una tecnica che consente di ottenere rapidamente milioni di molecole identiche del DNA che si vuole analizzare/riconoscere,a partire da quantità estremamente ridotte dell’acido nucleico. Questo è possibile perché il DNA è una molecola in grado di replicarsi. Il DNA ha una doppia elica caratterizzata da basi nucleotidiche (citosina, guanina, timina e adenina) che si accoppiano e si riconoscono tra loro in maniera selettiva: la citosina riconosce sempre la guanina e l’adenina riconosce sempre la timina. Quando si ha una sequenza di DNA e si conosce la disposizione delle basi lungo la catena fosfodiesterea, automaticamente si conosce anche la sequenza di basi della catena subcomplementare. La PCR parte da un campione di DNA incognito e tramite nucleotidi + primers (iniziatori che servono per far iniziare la polimerizzazione) + polimerasi (enzima che catalizza la 1 Casari/Ferraro 29 Bionanotecnologie (Ciardelli) 05/05/2022 riproduzione del DNA) + tampone + opportuni tubetti e grazie a dei cicli termici produce tante copie del DNA iniziale. Come si osserva nella figura a lato, il processo prevede di scaldare la doppia elica di DNA alla temperatura di denaturazione, per cui le due catene si separano, in quanto sono tenute insieme da legami a idrogeno, che ad alta temperatura non hanno motivo termodinamico di esistere. Si vogliono, quindi, replicare le due catene, facendo due copie della prima molecola. Per prima cosa si utilizzano dei primer/iniziatori, ovvero dei piccoli inneschi complementari a una parte delle sequenze del DNA da replicare, che servono a far iniziare il lavoro della polimerasi. Si aggiunge, poi, la polimerasi di un organismo termoacquatico, che consente di lavorare a temperature più elevate rispetto a quelle raggiunte dalla polimerasi presente nel corpo umano, che invece lavora a 37°C (nella PCR si lavora a temperature più elevate di quella fisiologica). La polimerasi consente la replicazione del DNA con la crescita delle due catene. Alla fine si ottengono due copie della molecola iniziale sfruttando la complementarietà delle basi. Richiami: il DNA o Il DNA (acido desossiribonucleico) è un acido nucleico che contiene le informazioni genetiche, trasmissibili da generazione a generazioni, necessarie alla biosintesi di RNA e proteine o Il DNA è una doppia catena polinucleotidica, antiparallela, orientata, complementare e spiralizzata o Il DNA è un polimero organico costituito da monomeri chiamati nucleotidi o Ogni nucleotide è costituito da uno zucchero (il desossiribosio), un gruppo fosforico e una base (adenina, guanina, citosina e timina) o Il DNA non è quasi mai presente sotto forma di singolo filamento, ma come una coppia di filamenti saldamente associati tra loro per formare una struttura definita doppia elica o Ogni nucleotide è costituito da uno scheletro laterale, che ne permette il legame covalente con i nucleotidi adiacenti, e da una base azotata, che instaura legami idrogeno con la corrispondente base azotata presente sul filamento opposto (la striscia arancione in figura è un’alternanza di zucchero e fosfato ripetuti) Basi azotate: o basi a un anello → basi pirimidiniche (citosina e timina) o basi a due anelli → basi puriniche (guanina e adenina) a due anelli Nell’accoppiamento si ha sempre una purina accoppiata a una pirimidina, con tre legami a idrogeno tra citosina e guanina e due legami a idrogeno tra adenina e timina. 2 Casari/Ferraro 29 Bionanotecnologie (Ciardelli) 05/05/2022 La PCR (Polymerase Chain Reaction, reazione a catena della polimerasi) è una tecnica che consente di ottenere rapidamente milioni di molecole identiche di DNA a partire da quantità estremamente ridotte dell’acido nucleico (stampo). La PCR è una reazione di amplificazione in vitro di uno specifico frammento di DNA per mezzo di una DNA polimerasi. Si basa sulla esecuzione ciclica ripetuta più volte di tre fasi: 1. Denaturazione (denaturation) della doppia elica del DNA stampo in due singole eliche alla temperatura di 95°C → separazione delle due catene 2. Ibridazione (annealing) degli inneschi oligonucleotidici (primer) alla sequenze di DNA a singola elica a essi complementari e localizzati alle estremità del frammento bersaglio (a una temperatura compresa tra i 50°C e i 70°C) → aggiunta dei primer, avviene a temperature inferiori rispetto al primo step [Più semplicemente: La denaturazione del DNA è reversibile. Il processo attraverso il quale si ricostituisce la doppia elica del DNA a partire da due filamenti singoli è detto reazione di ibridazione. Perché vi sia ibridazione, due filamenti devono presentare sequenze di nucleotidi complementari.] 3. Sintesi (extension) del DNA complementare allo stampo a una temperatura compresa tra 68 e 72°C, utilizzando come enzima il Taq DNA polimerasi (enzima termoresistente ottenuto dal microorganismo termofilo Termophylus aquaticus) → aggiunta della polimerasi, che estende la catena, partendo dai primer e copiando ciascuna catena Al termine si ottengono due copie della stessa molecola. Il processo viene ripetuto tante volte, ottenendo tante copie. La PCR ha una storia aneddotica. È stata scoperta da Kary Banks Mullis (Lenoir, 28 dicembre 1944), un biochimico statunitense, vincitore del Premio Nobel per la Chimica nel 1993. Nel suo libro “Ballando nudi nel campo della mente” racconta di come, grazie all’LSD, abbia visto i singoli polimeri che si replicavano e quindi di come abbia scoperto la PCR. Per capire come funziona il processo di amplificazione dal punto di vista numerico della quantità di molecole che si riescono a produrre, si fa l’analogia con la storia dell’invenzione degli scacchi. Un re ricco e annoiato chiamò il ciambellano chiedendogli di inventare un passatempo. Il ciambellano tornò con una scacchiera e il re volle ricompensarlo. Il ciambellano disse di accontentarsi di una semplice richiesta: un chicco di riso sulla prima casella della scacchiera e un numero di chicchi di riso doppio (rispetto alla casella immediatamente precedente) su ogni casella successiva. Il re accettò, per poi accorgersi solo alla fine che aveva promesso l’impossibile. Il numero dei chicchi di riso aumenta in modo esponenziale lungo le caselle della scacchiera. Bastano 63 passaggi “da una casella all’altra” per arrivare al numero astronomico di ben 18.446.744.073.709.600.000 di chicchi complessivamente richiesti! Questa è la stessa crescita esponenziale delle molecole di DNA che si ha quando si fa la reazione della PCR. A cosa serve replicare il DNA? Ad esempio, un campione di DNA rilevato in chimica forense su una scena del delitto, che è un campione molto piccolo, si può replicare tramite PCR in modo da poterlo analizzare e trattare. Anche nel progetto genoma si parte da piccoli quantitativi di DNA della Drosophila che può essere moltiplicato tante volte e poi sequenziato utilizzando il quantitativo di cui si ha bisogno. 3 Casari/Ferraro 29 Bionanotecnologie (Ciardelli) 05/05/2022 Vedremo ora nel dettaglio i fenomeni chimico-biologici che sono coinvolti nell’amplificazione del DNA tramite PCR. Denaturazione Il punto di partenza è il DNA che si trova nella classica conformazione a doppio filamento in cui i due filamenti (strands) sono tenuti assieme dai legami a idrogeno formati tra le basi azotate complementare (A→T, due legami a idrogeno; G→C, tre legami a idrogeno). Per replicare il DNA, le due catene vanno separate. Nelle cellule del nostro organismo è presente un enzima, l’elicasi, che srotola la catena, ma per la PCR si utilizza un meccanismo più semplice: si alza la temperatura, passando da doppia elica a due singole eliche. Si passa da struttura ordinata a doppia elica a due singole eliche, che si possono considerare come due catene polimeriche che si mettono in soluzione in disordine, formando strutture random coil. Si passa da uno stato nativo a uno denaturato. Il processo è reversibile: abbassando la temperatura si riforma la doppia elica. Sperimentalmente si può misurare questo fenomeno in due modi: - Misurando la viscosità delle soluzioni di DNA: la denaturazione è accompagnata da una netta diminuzione della viscosità della soluzione (si pensi a una soluzione con tanti bastoncini e una in cui ci sono delle palline: la soluzione meno viscosa sarà quella con le palline) Misurando l’assorbimento delle soluzioni di DNA: la denaturazione aumenta del 40% l’assorbimento a 260 nm - Quando si parla di assorbimento ci si riferisce a questo: si supponga di avere un recipiente con la soluzione di molecole di DNA, di far passare una luce di intensità 𝐼0 attraverso la soluzione e di andare poi a leggere con un fotodiodo l’intensità 𝐼 che esce: si avrà un assorbimento della radiazione e dunque 𝐼 < 𝐼0 . L’assorbanza si definisce come: 𝐴 = − log 𝐼 =𝜀∙𝑏∙𝐶 𝐼0 𝐼 Dove 𝐼 è detta trasmittanza, 𝐶 è la concentrazione della soluzione, 𝑏 è lo spessore del recipiente 0 (più spesso è il recipiente, più molecole incontrano la luce e quindi più radiazione viene assorbita), 𝜀 è l’assorbività molare, ovvero una caratteristica della molecola. La denaturazione aumenta l’assorbanza 𝐴 del 40% perché scaldando si passa da una situazione con doppie eliche a una con singole eliche e dunque cambia 𝜀, ovvero cambia quanto la singola molecola/mole di DNA assorbe. Il tutto avviene a 260 nm, che ricorda l’assorbanza all’UV del benzene (256 nm). Nel DNA sono le basi nucleotidiche ad assorbire la radiazione. Nella configurazione a doppia elica le basi si trovano all’interno e si riparano l’un l’altra, mentre nella 4 Casari/Ferraro 29 Bionanotecnologie (Ciardelli) 05/05/2022 configurazione denaturata le basi sono più disponibili ad assorbire i raggi che passano attraverso la soluzione, e quindi l’assorbanza aumenta. Si può misurare, ad esempio, l’assorbanza in funzione della lunghezza d’onda. Dal grafico a destra si può osservare come un DNA denaturato, a 260 nm, avrà un’assorbanza molto più alta rispetto al DNA nativo a doppia elica. Si può graficare l’assorbanza anche in funzione della temperatura (grafico a sinistra). Il DNA a doppia elica parte con un’assorbanza bassa, poi c’è un intervallo di temperatura relativamente stretto nel quale si ha tutto l’aumento di assorbanza, che corrisponde alla denaturazione di tutte le molecole di DNA. Questo è il tipico andamento di una transizione termodinamica del secondo ordine, tipo la Tg. Si può definire 𝑇𝑚 come valore in cui si ha la metà delle molecole denaturate, si trova a metà tra la temperatura di inizio e di fine denaturazione, ed è anche detta temperatura di fusione del DNA (temperatura alla quale il 50% di una certa sequenza nucleotidica è ibridizzata al suo filamento complementare). La parola “fusione” si accetta anche se è usata impropriamente, dato che non si ha un passaggio da uno stato solido a uno stato liquido, ma comunque si ha un passaggio da uno stato ordinato a doppia elica a uno disordinato a singola elica/random coil. La 𝑇𝑚 dipende da diversi fattori: - - tipo di basi che si hanno nella sequenza, dato che per ogni coppia G-C si hanno 3 legami a idrogeno e dunque è richiesta più energia per rompere questi legami; ci si aspetta, quindi, che un DNA con tante coppie G-C abbia una temperatura di fusione più alta rispetto a un DNA ricco di coppie A-T ambiente chimico concentrazione di sali (i cationi monovalenti come ioni Na+ stabilizzano la doppia elica, i denaturanti chimici come formamide o urea la destabilizzano) grado di omologia lunghezza della sonda Conoscere la temperatura di fusione 𝑇𝑚 è fondamentale perché bisogna operare a una temperatura un po’ più alta di quella di fusione per poter denaturare il DNA. La denaturazione del DNA, infatti, si fa a 95°C perché si è sicuri che a tale temperatura, benché dipenda dalle basi, si sia superata la 𝑇𝑚 , compresa al massimo tra 75°𝐶 e 90°𝐶, e che si riesca a separare qualunque catena di DNA. Ibridazione (annealing) Dopo la denaturazione si procede con l’annealing, che è il fenomeno contrario: si vuole evitare che la doppia elica si riformi tutta, ma si deve permettere l’accoppiamento (ibridazione) dei primer all’inizio della catena. Si abbassa, dunque, la temperatura da 95°𝐶 a 50°𝐶 − 70°𝐶, scegliendola opportunamente (temperatura di annealing, 𝑇𝑎 ). Generalmente si utilizza 𝑇𝑎 = 𝑇𝑚 − 5°𝐶, dunque 5 Casari/Ferraro 29 Bionanotecnologie (Ciardelli) 05/05/2022 di poco inferiore a quella di fusione, anche se spesso l’utilizzo diretto della stessa temperatura di fusione, dunque 𝑇𝑎 = 𝑇𝑚 , può portare ad avere ottime rese nella reazione di PCR. Nel mettere a punto le reazioni di PCR si possono seguire essenzialmente due tipi di criteri riguardo alla Ta: - - tenere 𝑻𝒂 costante durante i cicli → dalla temperatura di denaturazione (molto sopra la 𝑇𝑚 ) in cui si separa tutto, si abbassa fino quasi alla 𝑇𝑚 , i primer si accoppiano ma non si ricrea tutta la doppia elica 𝑻𝒂 che diminuisce ciclo dopo ciclo (touch-down) → permette di avere all’inizio cicli più stringenti evitando errori, dunque si opera all’inizio a temperature un po’ più alte, quando l’accoppiamento avviene solo se c’è una forte affinità tra primer e stampo. Una volta che si iniziano ad avere tante copie si può anche diminuire la temperatura. I cicli più stringenti sono tali da promuovere solo l’amplificazione di frammenti specifici rendendo instabili eventuali annealing dei primer a sequenze di DNA non perfettamente complementari. Bisogna giocare sul tempo: non deve essere troppo lungo per evitare accoppiamenti non voluti e sfavorire appaiamenti a stampi con bassa complementarietà. Di solito si utilizzano tempi dell’ordine 𝑡 = 30𝑠 o anche meno. Sintesi I primer (inneschi) sono necessari perché la DNA-polimerasi non è in grado di iniziare una catena da zero. In natura, l’RNA polimerasi crea gli inneschi che poi fanno partire la DNA polimerasi; infine, tali inneschi vengono sostituiti dal DNA. Mentre l’RNA polimerasi se commette errori fa una coppia di RNA che poi morirà, la DNA polimerasi non può sbagliare a fare la copia del DNA (si incorrerebbe in mutazioni, cancro, malattie genetiche, ecc.). Per questo motivo, la DNA-polimerasi controlla sempre che la precedente coppia di basi creata sia giusta (attività correttrice) e di conseguenza, se non è presente la prima coppia di basi, non comincia la sua attività. I primer/inneschi servono proprio per dare inizio alla polimerizzazione. Quindi, tutto inizia con l’innesco, dopo di che arriva la DNA-polimerasi termostabile e inizia l’estensione nelle due direzioni. In natura, una catena si estende nella direzione “giusta”, mentre quella antiparallela viene girata a pezzetti e replicata, e poi i vari pezzetti, i frammenti di Okazaki, vengono riuniti insieme. In questo caso, il meccanismo è più semplice: una polimerasi va in un senso e un’altra va nell’altro senso, arrivando a copiare la catena. Mentre nell’esempio della scacchiera, alla n-esima casella si hanno 2𝑛 chicchi di riso, nella PCR il processo non è così efficiente, ma c’è un errore e la legge di crescita è: 𝑁 = (1 + 𝑒)𝑛 dove 𝑁 è il numero di copie amplificate al termine della reazione, 𝑒 è detta efficienza dell'amplificazione e spesso si ha 0.7 < 𝑒 < 0.8, 𝑛 è il numero di cicli di amplificazione. Esempio Kahoot: 𝑁 = (1 + 0.8)10 ≅ 357 → si ottengono 357 copie 6 Casari/Ferraro 29 Bionanotecnologie (Ciardelli) 05/05/2022 Il grafico in figura mostra la crescita esponenziale del numero di molecole di DNA prodotto (verdi) tramite PCR a partire da una molecola campione di DNA (blu). Ai primi passaggi non si hanno delle copie esatte del segmento da amplificare. Si parte dalla separazione delle due catene (doppia elica da amplificare) e si mette il primer che allunga la catena finché trova nucleotidi. Le prime copie sono imperfette, hanno delle “spenzolature” laterali. Si può osservare meglio nella figura qua sotto. Schema di funzionamento della PCR FIRST CYCLE: Si ha il frammento di DNA da amplificare e nello specifico si vuole amplificare la porzione in grigio chiaro (non quella colorata di nero). Si separano le due catene, si mettono i primer (verde e rosso) che vanno a cercare la sequenza complementare, che sarà all’inizio delle porzioni grigie. La freccetta del primer indica la direzionalità della catena (5’ e 3’; l’estremità 3’ è quella dove si attaccano i nucleotidi); i due primer puntano in direzioni opposte. La polimerasi parte e si ha la sintesi, che non si ferma dove finisce il grigio in quanto ci sono altre basi (la polimerasi non è consapevole del fatto che si voglia replicare solo la parte in grigio). La polimerasi prosegue finché non finisce la catena stampo in entrambi i lati. Le 4 molecole ottenute non sono repliche della porzione che si vuole replicare. SECOND CYCLE: A questo punto si fa una nuova denaturazione e si ottengono 4 molecole di DNA a catena singola, si riutilizzano i primer e si fa una nuova amplificazione. Nel primo passaggio si avevano 21 = 2 molecole, mentre ora, al secondo passaggio, 22 = 4 molecole che però sono diverse tra loro in quanto differiscono per i pezzettini alle estremità. THIRD CYCLE: Si cominciano ad avere delle molecole che sono esattamente delle copie della porzione che si voleva amplificare, senza i pezzettini in più. Si hanno ora 23 = 8 molecole, ma in realtà quelle di effettivo interesse sono solo 2. 7 Casari/Ferraro 29 Bionanotecnologie (Ciardelli) 05/05/2022 Questo spiega perché all’inizio non si hanno le copie della porzione da amplificare, ma a mano a mano che si va avanti coi cicli, la quantità aumenta secondo la legge esponenziale vista prima (𝑁 = (1 + 𝑒)𝑛 ). Le molecole copia dei segmenti grigi, sono il prodotto della PCR. Le altre molecole, che al proseguire dei cicli saranno presenti in numeri molto bassi sono scarti che non sono di interesse. Utilizzi della PCR La PCR può essere effettuata sul DNA genomico, cioè si prende una cellula, si estrae il DNA, lo si amplifica e successivamente si sequenzia. Può servire per: - - identificare un individuo (medicina legale) identificare la presenza di un determinato microorganismo, ad es. un microorganismo patogeno, compresi quelli più grossi come i batteri; il test molecolare per il Covid riconosce il materiale genetico del virus, identificandolo grazie alla PCR individuare eventuali mutazioni → si amplificano DNA diversi e poi si vanno a confrontare clonare regioni genomiche Nel genoma si trovano diversi tipi di sequenze: - gli esoni, che vengono poi tradotti in proteine gli introni, che poi non si ritrovano nell’espressione genica le sequenze promotrici, che indicano alla RNA polimerasi dove iniziare a trascrivere La PCR amplifica indifferentemente tutto quando effettuata sul DNA genomico, ovvero amplifica sia esoni, che introni, che promotori. Non si preoccupa di ciò che succede dopo, ma fa semplicemente tante copie del DNA genomico per poi leggere le sequenze tramite dei sensori che vedremo più avanti. 8 Casari/Ferraro 29 Bionanotecnologie (Ciardelli) 05/05/2022 Evoluzione della PCR – Reverse Transcriptase PCR Se, invece, si vuole avere qualche informazione su cosa sta facendo il DNA in quel momento, cioè quali geni il DNA sta esprimendo e si vogliono amplificare solo quei geni, si usa un’evoluzione della PCR: la RT-PCR (Reverse Transcriptase PCR). La trascrizione consiste nel passare da DNA a RNA, la trascrizione inversa è opposta: dall’RNA si passa al DNA. Si può fare, però, sull’RNA messaggero (mRNA). Si parte dal DNA genomico fatto da esoni e introni, la RNA polimerasi li trascrive tutti, ma poi, tale RNA di prima sintesi, matura (maturazione o splicing) nell’RNA messaggero, ovvero perde le sequenze introniche. A questo punto, per amplificare l’mRNA, lo si deve trascrivere inversamente in cDNA (DNA complementare). La trasformazione in cDNA è fondamentale per poterlo amplificare con la PCR, perché la PCR sull’RNA non funzionerebbe in quanto è a singola elica e perciò non vale la complementarietà. Di fatto, quando si amplifica il cDNA, è come se si fossero amplificati solo gli esoni e quindi si ottengono informazioni sui geni che vengono trascritti in quel momento dalla cellula. [“In quel momento” perché magari in un’altra situazione la cellula ha un comportamento diverso. Basti pensare all’adesione cellulare: quando una cellula è tutta schiacciata sta differenziando, quando è un po’ meno schiacciata quando sta proliferando; in quei due diversi momenti la cellula, pur avendo lo stesso DNA genomico, sta esprimendo geni diversi, ovvero i geni per il differenziamento nel primo caso e quelli per la proliferazione nell’altro caso.] Attenzione: per ora si sta solo amplificando, ovvero si sta aumentando la disponibilità di analita, ovvero della quantità di analita da analizzare. 9 Casari/Ferraro 29 Bionanotecnologie (Ciardelli) 05/05/2022 Evoluzione della PCR – Real-time PCR Un’altra interessante evoluzione della PCR è la real-time PCR. PCR tradizionale → rilevazione alla fine della reazione → si amplifica andando a creare più materiale che viene analizzato alla fine PCR Real-Time → rilevazione mentre la reazione si sta svolgendo → si può costruire subito il grafico che dimostra che l’amplificazione sta avvenendo in quel momento. La Real-Time PCR Permette di osservare l’amplificazione in tempo reale durante la fase esponenziale (le prime fasi) della PCR quando la reazione è meno influenzata dalle variabili di reazione. Come si può fare questo? Si devono mandare dei messaggeri/reporter (sonde) che rimandino poi indietro un segnale che descriva ciò che sta succedendo, ovvero l’amplificazione o meno del segmento del DNA: deve dire se il DNA si sta replicando. Ci sono due possibili modi: - Si ha il DNA denaturato, quindi si hanno le catene singole, arriva il primer e si posiziona sulla catena (annealing/ibridazione); oltre a fare l’annealing del primer, si fa anche l’ibridazione della sonda (reporter). La sonda è una molecola di DNA a catena singola che ha in un’estremità una molecola fluorescente e nell’altra estremità una molecola che spegne la fluorescenza quando sono vicine. Queste molecole sono costruite in maniera tale che se sono da sole stanno richiuse a forcina, quindi tengono le estremità (fluoroforo e quencher) vicine e sono spente. A questo punto avviene l’ibridazione, arriva la polimerasi e comincia la reazione di estensione. La sequenza della sonda è corta, quindi fluoroforo e quencher sono ancora vicini e di conseguenza la fluorescenza è spenta. La polimerasi ha anche un’attività nucleasica, cioè non solo può sintetizzare o legare basi nucleotidiche, ma le può anche staccare. Perciò, dato che la doppia elica è termodinamicamente più stabile in quanto tutte le volte che a bassa temperatura si creano legami a idrogeno, si ha un guadagno termodinamico, ovvero una situazione energeticamente più stabile, la polimerasi deve proseguire nel suo lavoro di replicazione del DNA. Dunque, quando la polimerasi incontra l’ostacolo della sonda, per proseguire scalza via la sonda tagliandola a pezzetti. In questo modo, il primo nucleotide che aveva legato il fluoroforo si stacca e si allontana dal quencher, accendendo la fluorescenza e 10 Casari/Ferraro - 29 Bionanotecnologie (Ciardelli) 05/05/2022 permettendo di iniziare a vedere un segnale che aumenta a mano a mano che le sonde vengono staccate dalle molecole mentre vengono fatte nuove reazioni di replicazione. Questo è il metodo intuitivo: a mano a mano che la reazione procede si ha un aumento del segnale. Metodo controintuitivo. Si ha sempre la molecola denaturata, arriva il primer e si ibridizza. In questo caso si inserisce un molecular beacon, ovvero una sonda a forcina, dotata di un fluoroforo e di un quencher, più lunga rispetto alla sonda di prima (usata nel metodo intuitivo). Finché sta chiusa a forcina, la fluorescenza è spenta, mentre quando c’è l’ibridizzazione si accende perché il beacon si apre, allontanando il fluoroforo dal quencher. La polimerasi parte e scalza via la sonda, che si richiuderà a forcina, spegnendo nuovamente la fluorescenza. In questo caso, il procedere della reazione dà una diminuzione del segnale fluorescente (mentre nel primo caso era il contrario con un aumento di fluoescenza). ➢ DOMANDA: Nel secondo caso come mai la molecular beacon non viene "smembrata” dalla polimerasi? Solo perché è più lunga? Sì, perché è più lunga e perché ha delle sequenze diverse, che non sono tagliabili dalla DNA polimerasi, la quale può tagliare solo in presenza di certe sequenze nucleotidiche. 11 Furlotti/Francolini Bionanotecnologie (Ciardelli) 06/05/2022 Abbiamo visto com’è possibile effettuare la PCR contemporaneamente monitorando il progredire della reazione, inserendo nell’ambiente di reazione un reporter, cioè una molecola che durante la replicazione del DNA, quindi delle molecole del template, produce un segnale leggibile. Abbiamo visto due approcci, uno in cui il segnale aumentava, basato sulla replicazione, e uno in cui il segnale diminuiva. [Filmato 1] http://www.youtube.com/watch?v=kvQWKcMdyS4 [Filmato 2] http://www.youtube.com/watch?v=5FaFIvq_eAI Questi due filmati erano per far vedere come questi metodi abbiano applicazioni di tipo analitico, cioè si va a rilevare la presenza di uno specifico DNA, non come la PCR tradizionale che fa solo delle copie del campione originale. LCR: ligase chain reaction Sempre in questo contesto, si vede una variante della PCR tradizionale, la ligase chain reaction (LCR); in questo approccio non si usa solo la polimerasi, ma anche un altro enzima (coinvolto comunque nella replicazione del DNA), che è la DNA ligasi. Di fatto si tratta di una tecnica che serve per rilevare la presenza di specifiche sequenze di DNA in una miscela complessa, lo scopo non è amplificare lo stampo, ma identificare la presenza di una specifica sequenza, anche se di fatto quel che si fa è un’amplificazione del materiale genetico. Si usa una ligasi termostabile: la ligasi come enzima catalizza la formazione di un legame fosfodiestereo tra un ossidrile in posizione 3’ nella catena di DNA e un fosfato in posizione 5’ in un’altra catena. Se si pensa alla DNA polimerasi la reazione catalizzata è la stessa ma in condizioni diverse, se si parlasse di polimerasi si dovrebbe cambiare il primo disegno: la polimerasi attacca singoli nucleotidi alla catena in crescita, quindi fa la stessa reazione ma nel disegno al posto di DNA STRAND (catena di DNA), si avrà un singolo nucleotide e si allunga man mano la catena, la quale avrà l’OH libero. In questo caso la ligasi è un enzima che di fatto tappa i buchi che si formano tra due catene di DNA, ad esempio in natura lo fa per ricucire i segmenti di DNA che sono stati sintetizzati nella seconda fase quando si sintetizza il primer di DNA, oppure anche la catena ritardata viene sintetizzata a pezzi (frammenti di okazaki) che la ligasi unisce. Un altro esempio si trova in biotecnologie per unire pezzi di DNA: ad esempio, se si ha un plasmide batterico e si vuole che esso sintetizzi insulina invece di estrarla dal pancreas di un bovino, si prende il gene dell’insulina e con una endonucleasi si taglia un pezzo di plasmide. Dopodichè, questo pezzo viene riattaccato con la ligasi (parte in nero). Quindi il batterio avrà nel suo plasmide di DNS il gene per fare 1 Furlotti/Francolini Bionanotecnologie (Ciardelli) 06/05/2022 l’insulina, si può produrre insulina per via biotecnologica. La colla è la ligasi, le forbici sono le endonucleasi. Come si usa la LCR? Il primo passaggio è come la PCR: si separano le due catene dello stampo di DNA. Il secondo passaggio è ancora un annealing, ma non di primer come nella PCR (nella quale si prendono i primer e si ibridizzano in queste due posizioni, poi da qui parte la polimerizzazione). Qui invece si fa l’ibridazione ma di molecole diverse che si chiamano probe (sonda), le quali sono abbastanza lunghe e se ne usano 4 invece che 2 come nei primer. Le probe si devono appaiare sullo stampo lasciando soltanto un piccolo gap che poi viene riempito dalla ligasi, che attacca insieme i due probe. A questo punto il processo viene ripetuto tante volte, i prodotti finali non sono altro che tante copie dei probe attaccati insieme, di fatto sono stati amplificati i probe e non i target. Se effettivamente come risultato si ha l’amplificazione del probe significa che la ligasi ha lavorato e si aveva sullo stampo una sequenza complementare ai probe. Come si fa a vedere se il processo ha funzionato? Il principio di rilevazione è basato su quegli oggettini che erano stati schematizzati precedentemente sui probe, cioè quel rombo viola (in figura) e la pallina verde (in figura), questi sono rispettivamente chiamati raggruppamento antigenico di cattura, il quale si lega ad un anticorpo a sua volta legato ad una particella magnetica, e raggruppamento di rilevazione, che viene riconosciuto da un anticorpo che nel sistema di rilevazione è legato ad un enzima che è in grado di trasformare un substrato da incolore a colore. Quindi, se si vede colore vuol dire che il processo ha funzionato, perchè alla fine della reazione l’antigene di cattura lo possiedono sia i prodotti, sia queste molecole in arancione (probe), metà delle probe ha anche l’antigene di cattura. Tutto ciò che si è preso si trasferisce su una matrice in fibra di vetro, che poi viene lavata bene per rimuovere tutto ciò che non è legato. Se si sono prese anche le molecole che non hanno l’antigene di cattura ma solo quello di rilevazione, queste vengono lavate via. A questo punto si aggiunge sulla matrice di vetro il sistema enzima + anticorpo (cerchiato in rosso nella figura precedente) per l’antigene di rilevazione. 2 Furlotti/Francolini Bionanotecnologie (Ciardelli) 06/05/2022 Se la reazione ha funzionato sono state prodotte le molecole (cerchiate in azzurro nella figura), quindi sono sulla fibra di vetro. Si mette sulla fibra l’anticorpo con l'enzima, poi ci si butta il substrato e si vede il colore. Se la reazione non ha funzionato, il colore non si vede, perché le molecole catturate sono quelle che hanno l’antigene di cattura, ma non di riconoscimento. Quando ci si butta l’anticorpo, questo non trova niente a cui legarsi, e quando viene sciacquata la matrice, questo viene lavato via. Riassumendo: Si ha il template, viene denaturato, si mettono le probe che si ibridizzano affinchè le ligasi le uniscano. Il metodo di rilevazione è un metodo che prevede che ci sia segnale solo se questo legame è avvenuto, ovvero se ci sono molecole che contengono contemporaneamente l’antigene di cattura e di rilevazione. Se non c’è l’antigene di cattura, con le particelle magnetiche non si può estrarre il template dall’ambiente di reazione e non viene portato sulla fibra di vetro e quindi non dà segnale. L’antigene di rilevazione ci deve essere perché altrimenti l’antigene di cattura che si ha sulla fibra di vetro non darebbe segnale, e mancando l’antigene di rilevazione, l’anticorpo ad esso complementare e l’enzima ad esso legato non troverebbero niente a cui legarsi sulla fibra di vetro. Domanda: La presenza del colore ci dà informazioni di tipo quantitativo , in funzione dell’intensità del colore stesso, o solo qualitativo? Risposta: La misura dell’intensità del colore, ovvero l’assorbanza è proporzionale alla concentrazione del colore, quindi sì, è possibile avere risposte di tipo quantitativo, anche se in questo caso lo scopo è rilevare la presenza della sequenza. Gap Ligase chain reaction (LCR) Esiste una variante delle LCR, che è la Gap LCR, che utilizza dei probe un po’ più corti, i quali si ibridizzano, ma lasciano tra loro un gap più lungo. La ligasi non basta, c’è bisogno anche della polimerasi e di nucleotidi liberi per allungare la catena finché non si arriva al punto in cui si ha soltanto un fosfato in posizione 5’ e un H in posizione 3’. In certi casi si possono non avere dei probe sufficientemente lunghi e disponibili per identificare la sequenza che si sta cercando. Dispositivo per la rilevazione del DNA Finora si è ragionato su approcci macroscopici, ma è possibile trasferire questi ragionamenti alla micro e nano scala. Si può immaginare, in certi casi, di portare una reazione di PCR su un chip, un dispositivo che integrando canali fluidici, riscaldatori, sensori di temperatura e rilevatori di fluorescenza sia in grado di identificare l’amplificazione di un campione specifico di DNA. Grazie alla microfluidica e alla miniaturizzazione dei dispositivi, resa possibile dalle nano tecnologie, si riescono a realizzare 3 Furlotti/Francolini Bionanotecnologie (Ciardelli) 06/05/2022 questi bio-chip. Un dispositivo questo tipo ha delle zone di alimentazione del campione, in ordini di volumi molto piccoli (nano liquidi), una zona in cui si regola il flusso e la velocità del liquido, una zona in cui si fa la PCR (zona di reazione termica) in cui ci saranno dei riscaldatori, dei misuratori di temperatura. Questa parte, che alla macroscala non è ancora stata vista, consiste nell’analizzare il prodotto della PCR e separare il prodotto dalle impurezze. Per separare questi oggetti si utilizza una tecnica chiamata elettroforesi su gel, nella quale si utilizza un gel polimerico per separare le molecole. Il tutto si può portare a bordo di un dispositivo integrato micro e nano fluidico per l’analisi su chip del DNA. Analisi del DNA dopo PCR - elettroforesi su gel L’elettroforesi su gel è una tecnica molto utilizzata per separare le componenti di miscele biologiche (acidi nucleici o proteine). Le due proprietà che si sfruttano per la separazione sono la carica e il peso molecolare, quindi le dimensioni della molecola. Quello che si fa è andare a caricare la molecola da una parte, sottoporla all’azione di un campo elettrico, creato grazie a due elettrodi. Nel caso del DNA questo campo elettrico tenderà a migrare da un polo positivo ad uno negativo perché il DNA ha nella catena il gruppo fosfato, che sono cariche negative (polianione). La separazione avviene in questo modo: la sostanza migra in direzione del campo elettrico, la reazione avviene all'interno di una fase stazionaria, che è posta fra i due elettrodi. La fase stazionaria può essere fatta o di carta, o di un liquido all’interno di capillari, infatti la tecnologia capillare è quella che si presta di più a essere trasferita sulla micro e nano scala, o più comunemente la fase stazionaria può essere fatta di gel polimerici, che sono in genere costituiti da polisaccaridi, come il lagarosio, oppure sintetici come la polietilammide. Per DNA piccoli si usa in genere la polietilammide, per DNA più grandi si usa il lagarosio. Come si indica la grandezza di una molecola di DNA? In genere si trova scritta l’unità di misura bp, che sta per base pairs, ovvero coppie di basi. La dimensione del DNA la dà il numero di coppie di basi che sono contenute nella molecola. Il gel in genere si lavora in tamponi, la proteina serve anche per decidere a che pH lavorare rispetto al loro punto isoelettrico, quindi rendere le cariche positive o negative. Per il DNA questo problema non c’è, però il tampone serve a garantire che la corrente passi attraverso il gel grazie agli ioni contenuti nel sale (tampone). Si può lavorare in condizioni denaturanti, si può scegliere se separare singole eliche o doppie eliche; separando doppie eliche si lavora in condizioni neutre, si si vogliono separare le singole eliche si lavora in condizioni denaturanti, quindi per esempio si usano la formammide e l’urea. Il sistema (in figura) è costituito da 2 elettrodi, da un pozzetto idrocarico dove viene caricato il DNA. Se il campione è costituito da catene a diversa lunghezza, quando si spegne il campo elettrico le catene più piccole si saranno dall’elettrodo negativo rispetto a molecole più grandi. Alla fine si ottengono delle bande che si evidenziano con dei coloranti o con dei marcatori radioattivi e si vanno a vedere le dimensioni delle molecole che erano contenute nel campione 4 Furlotti/Francolini Bionanotecnologie (Ciardelli) 06/05/2022 È esemplificata l’ipotesi di avere una miscela di frammenti di DNA (frammenti di restrizione, che possono essere il risultato di un taglio del DNA più lungo, ma potrebbe essere anche la miscela proveniente dalla PCR). Si applica il campo elettrico, il DNA comincia a migrare: è una sorta di percorso ad ostacoli dove le molecole più piccole riescono a districarsi in maniera più efficace rispetto alle più grandi. Le più lunghe si fermano prima, mentre le più corte raggiungono una posizione più avanzata. I risultati che ottengo sono i due elettroforetogrammmi di miscela di DNA, segnati come M ci sono gli standard, cioè dei campioni a grandezza nota che mi servono per tarare il sistema. C’è una scala: ci sono basi (8, 4, 3, 2, 1 kb) o coppie di basi (bp 1400, 600, 400, 200, 100, 60, 20). Quindi mettendo la miscela, se la banda viene trovata in corrispondenza del 30, significa che il DNA era costituito da 30 coppie di basi e così via. Southern Blotting L’elettroforesi può essere accoppiata al Southern Blotting, che è una tecnica usata per rilevare la presenza di specifiche sequenze di DNA in una miscela composta: non separo soltanto, ma vado anche a identificare se in quella miscela è presente una specifica sequenza. Quindi si prende il DNA, gli enzimi di restrizione lo tagliano pezzi più piccoli; con l’elettroforesi si effettua questa separazione. A questo punto si deve aggiungere un denaturante come l’urea e tutte le catene doppie diventeranno singole e in questo modo è possibile trasferire l’elettroforetogramma su un pezzo di carta. in Se ho l’elettroforetogramma su gel, lo denaturo e lo trasferisco su un foglio di nitrocellulosa, dove si attaccano solo le catene singole. A questo punto devo sviluppare il foglio e lo metterò in un bagno che contiene delle sonde radioattive o marcate a fluorescenza. 5 Furlotti/Francolini Bionanotecnologie (Ciardelli) 06/05/2022 Quando sviluppo, mentre prima si usavano semplicemente dei coloranti o dei marcatori aspecifici che colorano tutto il DNA, qui ho proprio una sonda che si lega solo dove trova il suo DNA complementare. La composizione della sonda (ovvero la sequenza di basi) la conosciamo, trovando delle bande in una determinata posizione, ottengo anche un’informazione sulla sequenza che si trova in quella posizione. Northern & Western Blotting Ci sono due varianti di Southern Blotting, dove Southern era il cognome del biochimico che ha inventato il saggio. Per analogia quando il saggio viene fatto su RNA o su proteine il nome diventa rispettivamente Northern Blotting e Western Blotting, ma è solo una nomenclatura derivata. Quindi il Northern Blotting è la stessa cosa del Southern, fatto però a partire da un campione di RNA, perciò non c’è bisogno di fare la denaturazione perché si lavora già a singole eliche. Mentre con il Western Blotting, come sonde non può usare delle catene di DNA ma degli anticorpi marcati radioattivi e lo si fa però sulle proteine (argomento che non sarà trattato). BIOMEMS-2 Metodi di rilevazione Si vedrà come creare dei sensori con dei rilevatori che siano adatti a dispositivi miniaturizzati. Ovviamente non è possibile utilizzare i metodi tradizionali. Come sensori si potranno mettere vari tipi di oggetti. Con il campione da analizzare si fanno tutte le operazioni di processing e poi ci sarà da rilevare cosa si aveva nel campione. Ci sono tre metodi: - Rilevazione meccanica Rilevazione ottica Rilevazione elettrica Quella ottica è quella più diffusa, ma la meccanica ha delle potenzialità maggiori. Rilevazione meccanica È rilevazione di entità o reazioni biochimiche. Si usano come oggetti del sensore dei cantiliver (travi a mensola), ovviamente miniaturizzati. Sono quegli oggetti che si usano nei miscoscopi a forza atomica: è un oggetto che si può 6 Furlotti/Francolini Bionanotecnologie (Ciardelli) 06/05/2022 immaginare come una specie di giradisci, con la cui punta si va ad interagire con una superficie. Muovendolo si fa una profilometria della superficie che poi viene ricostruita su un’immagine. Non è un vero microscopio ottico, ma si basa su un’indagine al contatto (meccanica). Si fa infilare la punta nel materiale e ne si testano le proprietà meccaniche. Il protagonista della microscopia a forza atomica AFM è la puntina del giradischi. A noi in realtà non interessa la puntina ma ci interesseremo solo della testina, il cantiliver. Se su questi avviene una reazione di tipo biochimico o vi si appoggiano oggetti molto piccoli, queste levette leggere subiranno una sollecitazione meccanica. Se sono fermi si inclinerà, se invece si mettono in oscillazione, cambierà la frequenza di oscillazione perché cambia la massa. Rilevazione meccanica - Variazione di massa Ho la trave a mensola, do un colpetto (ovviamente in processo è molto delicato). Questo inizierà a vibrare alla sua frequenza di risonanza: Quando su questa superficie si posa del materiale, m cambierà e con essa cambierà f. Supponendo che k rimanga costante, questa variazione di massa sarà correlata da questa legge: f0 è la frequenza iniziale, quando non ho l’oggetto depositato, f1 è quando ho l’oggetto depositato. È in genere il metodo che uso quando si hanno cellule o virus, perché si disporranno in modo discreto e non formeranno mai uno strato di ricopertura totale. Rilevazione meccanica - Reazione biochimica Con molecole piccole si può pensare di usare il metodo dell’inclinazione: si va a misurare quanto varia la posizione in altezza dell’estremità libera del cantiliver. Si immagini di aver rivestito il cantiliver con uno strato di anticorpo. Quando arriva la molecola target, quindi l’antigene dell’anticorpo e avviene il legame tra recettore e target, si crea uno strato uniforme diverso da quello originale e il cantiliver si defletterà. Avviene una reazione biochimica, ad esempio il legame tra anticorpo e antigene oppure il legame tra due catene 7 Furlotti/Francolini Bionanotecnologie (Ciardelli) 06/05/2022 complementari di DNA, cambia l’energia libera e quindi lo stress superficiale e questo fa si che il cantiliver si pieghi (bending). L’inclinazione viene misurata sfruttando un laser con cui si va a colpire la punta, cioè la zona libera del cantiliver. Se il laser colpisce in un punto piuttosto che in un altro, farà un cammino ottico diverso, quindi lo si potrà rilevare con un opportuno sistema. È lo stesso principio che si utilizza nella microscopia a forza atomica. Si può anche usare un metodo elettrico mettendo un piezoresistore sul cantiliver che vedrà la sollecitazione. La formula che lega la variazione di stress (Δσ1 - Δσ2) alla variazione di altezza (Δz) è: Coinvolge la lunghezza del cantiliver (l), il suo spessore (t), il rapporto di Poisson (la comprimibilità, ν), il modulo elastico del materiale (E). Si suppone che tutte queste quantità non cambino quindi Δz è solo correlato tramite una costante di proporzionalità alla variazione di energia libera (Δσ1 Δσ2), che è una conseguenza del fatto che è avvenuto il legame antigene-anticorpo. [Filmato 3] - https://www.youtube.com/watch?v=LcPBNcaqaKg 8 Scalfaro/Grieco Nobile 31 Bionanotecnologie (Ciardelli) 11/05/2022 Riassunto scorsa lezione Nella scorsa lezione si erano visti dei sistemi miniaturizzati alla micro e nano scala, i quali vengono inseriti come elementi sensibili, cioè tecnologie utilizzate per effettuare la parte di rilevazione nelle Biomems, ovvero quegli oggetti micro o nanometrici, somiglianti ad un chip elettronico, i quali hanno al loro interno la capacità di elaborare un materiale biologico ed analizzarlo previa eventuale separazione dei suoi componenti. Si sono viste le tecnologie che servono all’amplificazione del DNA, alla sua separazione e le tecnologie che servono a rilevare anche selettivamente il campione in oggetto. I metodi per produrre un segnale in seguito alla misurazione del campione sono diversi, si può produrre un segnale di tipo elettrico, ottico e meccanico. I segnali di tipo meccanico sono i metodi più moderni, meno sviluppati dal punto di vista commerciale ma molto interessanti perché non necessitano funzionalizzazioni del campione, il che porta vantaggi sia economici sia di facilità operativa. Rilevazione meccanica – Esempi 1. Rilevazione di DNA Nei dispositivi meccanici si può avere una trave a mensola, un cantilever, intubato come tecnologia della microscopia a forza atomica (metodo di rilevazione superficiale ma anche un metodo di micro e nano fabbricazione). Osservando la trave a mensola, quando c’è un evento biologico si può avere una flessione del cantilever oppure se è messo in oscillazione si può avere la variazione della frequenza di oscillazione in seguito all’evento biologico. Posso pensare di immobilizzare sul cantilever del DNA a catena singola di sequenza nota; quando si avrà del DNA complementare ad esso ci sarà l’ibridazione e un aumento di massa sul cantilever, quindi si avrà una variazione dell’energia superficiale o della frequenza di oscillazione se prima è stato messo in vibrazione, si vedrà quindi una deflessione misurabile con metodo ottico e risalire al fatto che il materiale genetico è ibridizzabile, quindi complementare alla sequenza immobilizzata prima nel cantilever. Questa tecnologia può essere sviluppata nella modalità del macro array cioè modalità nella quale si immagina di avere più elementi sensibili nello stesso dispositivo. Si può immaginare di immobilizzare una seconda sequenza su un secondo cantilever che potrà essere complementare ad un’altra sequenza ignota che si ha nel campione originario. Questo è il principio con il quale si costruiscono dei sensori meccanici per la rilevazione del DNA. 1 Scalfaro/Grieco Nobile 31 Bionanotecnologie (Ciardelli) 11/05/2022 Lo stesso principio lo posso adottare alla rilevazione di proteine, sarà il nostro dualismo anche se ci concentreremo più sul DNA, campo in cui queste tecnologie hanno trovato maggiore sviluppo; si avrà sempre un dualismo in cui l’elemento sensibile, chiamato sonda di cattura o capture probe, sarà una sequenza di DNA sulla quale si va a rilevare materiale genetico, saranno invece anticorpi (Y) dove si vorrà determinare la presenza di proteine o antigeni in generale. 2. Rilevazione dei marker tumorali Nel seguente esempio si vede come il legame della proteina all’anticorpo porterà ad un aumento della massa e ad una variazione di energia superficiale, il cantilever avrà una flessione correlata alla presenza dello specifico analita. Esempio classico del PSA (antigene prostatico), un marcatore che si va a ricercare nel sangue per rilevare infiammazioni o tumori alla prostata, che rileva la presenza di questo antigene. Si deve immobilizzare l’anticorpo sulla superficie d’oro, di solito si usa uno spaziatore (per esempio una sequenza di polietilenglicole) in modo che l’anticorpo abbia una sufficiente mobilità in modo da mostrare la sua zona di legame, di riconoscimento, in modo efficace verso l’antigene. Un altro accorgimento che solitamente si fa è ricoprire di polietilenglicole tramite un PEG-Silano la superficie inferiore, per evitare che nella superficie inferiore si abbia un assorbimento aspecifico di proteine; nel sangue oltre all’antigene prostatico ci sono anche molte altre sostanze che potrebbero aderire in maniera aspecifica per semplice assorbimento al cantilever. Perciò, ricoprire con un mezzo di passivazione, allestimento antisporcamento, può evitare questo fenomeno in quanto se si ha assorbimento nell’analisi si misurerebbe una deflessione più piccola, si avrebbe un errore possibile. Per la rilevazione si può usare un metodo ottico puntando un laser verso la punta del cantilever, si acquisisce prima dell’analisi la linea di base. Nell’esempio a) il raggio andrà a colpire la zona sul fotodiodo, la misura correlabile alla deflessione in questo caso sarà zero; nell’esempio b) si avrà l’assorbimento quindi il fotodiodo sarà colpito in un altro punto rispetto a prima, si può poi andare a calcolare la deflessione cioè lo scostamento dalla linea di base che nel caso ideale può anche essere proporzionale all’antigene rilevato. Tutto ciò viene fatto in un piccolo chip con una piccola quantità di sangue, può essere idealmente un dispositivo portatile. 2 Scalfaro/Grieco Nobile 31 Bionanotecnologie (Ciardelli) 11/05/2022 Rilevazione ottica La rilevazione ottica è la più comune tecnica di rilevazione usata in biologia e nelle scienze della vita. Il segnale che si va a leggere di solito è un segnale di fluorescenza o di chemiluminescenza. È necessario utilizzare dei marcatori di fluorescenza (emissione di una radiazione in seguito all’assorbimento di un’altra radiazione) oppure di luminescenza (risultato di una reazione chimica). In genere, questi oggetti sono dei chip, si ha quindi una superficie in vetro o silicio sul quale si ha uno strato di adesione a cui si legano le sonde di catture, che possono essere o catene di DNA per rilevazione di DNA oppure anticorpi per misurare la presenza di proteine o cellule. Piccolo inciso sulla fluorescenza e chemiluminescenza Fluorescenza Definizione: può essere definita come l’assorbimento molecolare dell’energia incidente (fotone) ad una certa lunghezza d’onda e la sua ri-emissione ad un’altra lunghezza d’onda. Nella fluorescenza si ha bisogno di molecole con elettroni pigreco, cioè molecole di tipo aromatico come il benzene, le quali hanno degli orbitali di legame (cioè occupati dagli elettroni) che sono abbastanza vicini agli orbitali di antilegame. La parte riquadrata in azzurro S0 è chiamata Homo (highest occupied molecular orbital) è l’orbitale a più alta energia dove si trovano gli elettroni di legame, detto anche orbitale di legame. Gli orbitali di antilegame sono quelli a più alta energia, cioè gli orbitali non occupati quando la molecola non è eccitata, perché preferisce tenere gli elettroni negli orbitali più bassi come S1 (nel riquadro verde), detto Lumo (lowest unoccupied molecular orbital). L’elettrone sta nell’orbitale più basso, quando si irraggia con una radiazione di energia h, si trasferisce grazie all’energia assorbita su un orbitale eccitato a più alta energia, assorbendone l’energia che gli viene irradiata. Quando poi la molecola si rilassa e tende a tornare nello stato fondamentale, l’elettrone decade, è un decadimento non radioattivo (si è nell’orbitale Sπ )cioè non emette energia. Arrivato sull’ultimo orbitale completa il suo rilassamento tornando allo stato fondamentale emettendo energia, ad una frequenza ν1 < , perché E1 < E, al contrario la lunghezza d’onda di emissione è minore della lunghezza d’onda di eccitazione (λ1 < λ). Esistono queste molecole dette cianine, le quali hanno uno spettro d’assorbimento come nell’immagine, con massimo intorno a 5.30, mentre quello tratteggiato è lo spettro di emissione con un massimo intorno a 5. Il vantaggio della fluorescenza è che avendo due lunghezze d’onda di assorbimento e di eccitazione diverse, la molecola assorbe la radiazione eccitante e non assorbe la 3 Scalfaro/Grieco Nobile 31 Bionanotecnologie (Ciardelli) 11/05/2022 radiazione emessa, quindi il segnale arriva più pulito perché non ci sono interferenze. Esistono molte cianine, è possibile avere vari colori cioè varie fluorescenze a lunghezze d’onda diverse, quindi è possibile analizzare più campioni diversi allo stesso tempo. Chemiluminescenza Definizione: è l’emissione di luce in seguito ad una reazione chimica. La luce viene rilevata mediante opportuni rilevatori. È richiesto l’uso di molecole marcate con opportune molecole o enzimi, in grado di catalizzare le reazioni che producono la luminescenza. La chemiluminescenza è un po’ meno usata, è sempre la coniugazione di un enzima con un anticorpo: l’anticorpo è selettivo per la proteina che si vuole rilevare, in questo caso una proteina del sangue, mentre l’enzima è l’HRP cioè Horseradish peroxidase (perossidasi del rafano). L’HRP riduce l’acqua ossigenata, in particolare in presenza del luminol esso viene ossidato in una molecola instabile emettendo luce, quindi se c’è questa proteina si vede della luce (concetto simile a quanto visto nella LCR, cioè la coniugazione di un enzima il quale trasforma un suo strato in colore e un suo strato colorato in luminoso, con un anticorpo che si lega all’antigene specifico che è il mio analita). Rilevazione ottica in fluorescenza Con la rilevazione a fluorescenza è possibile identificare anche singole molecole. In particolare, nei BioMEMS viene impiegata nella rilevazione di cellule/biomolecole utilizzando saggi basati sugli anticorpi (tipo ELISA). Rilevazione fi filamenti di DNA Ciò che posso fare con la rilevazione ottica, in particolare con il DNA, è immobilizzare le sonde di cattura: se sono catene singole di DNA mi servono per identificare la presenza del suo complementare, che sono le target probes che dovranno però essere fluorescenti (quindi marcati in precedenza altrimenti non si vedono). Rilevazione di biomolecole/proteine in soluzione Lo stesso dovrà essere fatto per le proteine, in questo caso le capture probes sono degli anticorpi e le proteine si legheranno, se hanno il cromofono fluorescente si va a misurare la fluorescenza e si vede la proteina. 4 Scalfaro/Grieco Nobile 31 Bionanotecnologie (Ciardelli) 11/05/2022 Rilevazione di cellule Ciò che si può fare è detectare le cellule, in questo caso si hanno anticorpi selettivi per proteine extra membrane della cellula. In genere si può anche marcare la cellula fluorescente, per esempio si può transfettare1 la cellula con un gene che produce la proteina fluorescente verde (approccio poco usato). Solitamente però si preferisce individuare la cellula marcandola, come viene fatto in immunoistologia, con degli anticorpi marcati fluorescenti i quali si legheranno agli antigeni cellulari presenti in abbondanza. Idealmente la cellula ha gli antigeni cellulari su entrambi i lati (come viene mostrato nell’immagine sopra), un lato delle proteine servono per legarsi al chip, l’altro lato delle proteine invece serve per legarsi all’anticorpo e dare un segnale a fluorescenza, è una specie di ELISA a sandwich. L’antigene può essere una proteina di membrana sovra espressa da cellule del cancro, per esempio un recettore per il folato. Per esempio, in un campione di cellule, se si immobilizzano nel chip i probes specifici, si possono immobilizzare selettivamente le cellule cancerose e individuarle in un campione per esempio nel sangue. Immobilizzazione dei capture probes -Tecnica chimica Superfici rivestite con Amminosilano A questo punto si studia meglio il tipo di legame in blu scuro indicato con la freccia rossa. Viene detto attachment layer, è un rivestimento del chip su cui si vanno a mettere delle funzionalità in grado di legame chimicamente la biomolecola di interesse, in particolare il DNA. Per esempio, si può fare una silanizzazione con un amminosilano, quindi funzionalizzare la superficie con gruppi amminici i quali hanno un pH abbastanza basso, carichi positivamente e formano ione ammonio, queste cariche positive attraggono lo scheletro di DNA che portano i gruppi fosfato (quindi negativi); perciò per semplice interazione elettrostatica si lega il DNA alla superficie. 1 Transfettare = inserire una sequenza di DNA esogeno dentro un genoma di una cellula 5 Scalfaro/Grieco Nobile 31 Bionanotecnologie (Ciardelli) 11/05/2022 Funziona particolarmente bene quando si hanno DNA sufficientemente lunghi in cui ci sono interazioni elettrostatiche in numero importante. Superfici rivestite con Aldeidi Si può fare un legame più forte di tipo covalente, in questo caso sono necessari gruppi aldeidici sulla superficie e di gruppi amminici (quindi devo modificare il DNA perché di suo non ce l’ha) sul DNA. La reazione di legame che avviene è la seguente: Si ha il vetrino con il gruppo aldeidico, a cui sommo il DNA con il gruppo amminico, si ha una reazione chiamata formazione a base di schiff. Se ne va acqua e si forma un legame covalente con l’azoto e quindi con il DNA. È un legame un po’ labile, se si mette infatti acqua acida si torna indietro, è una reazione di equilibrio. Per evitare di tornare indietro si fa una riduzione con sodio boroidruro. Si fa una riduzione del doppio legame, si prendono due idrogeni e si mettono sul doppio legame. A questo punto ho un legame covalente singolo, è di fatto un’ammina secondaria sostituita dal DNA da una parte e dal vetrino dall’altra. Ho quindi il DNA legato covalentemente al vetrino. Curiosità: il gruppo amminico si può introdurre quando si fa la PCR con delle modifiche alla sintesi. Rilevazione elettrica La rilevazione di tipo elettrico si basa su tre fondamentali sensori alla nanoscala: I. Conduttimetrici: sensori che misurano un cambiamento di conducibilità (per esempio il pH viene misurato così) II. Amperometrici: per misurare la corrente III. Potenziometrici: sensori che misurano la differenza di potenziale 6 Scalfaro/Grieco Nobile 31 Bionanotecnologie (Ciardelli) 11/05/2022 Sensori Amperometrici Si ricorda che nelle reazioni redox ci sono elettroni “in giro” che si sfruttano per misurare la corrente nel caso in cui si mette un opportuno elettrodo di lavoro, oppure per il calcolo di differenza di potenziale nel caso in cui viene messo un elettrodo di riferimento. L’esempio più rappresentativo dei sensori amperometrici è basato su una reazione redox catalizzata da un enzima dove la corrente di elettroni risultante viene misurata a livello dell’elettrodo di lavoro. Rilevazione del glucosio La reazione redox su cui sono basati i biosensori per la rilevazione del glucosio, è l’ossidazione del glucosio da parte dell’enzima glucosio ossidasi, questo vale anche nei sensori alla macroscala, come per esempio quelli con cui si misura la glicemia nei laboratori dell’Asl funzionano con questo principio. Il glucosio in presenza di ossigeno e acqua, presenti in grande quantità nell’ambiente fisiologico, viene ossidato ad acido gluconico, si produce perossido di idrogeno (comunemente detta acqua ossigenata H2 O2 ) che in vivo viene ridotta da opportuni enzimi come le perossidasi (nominate prima). Si può ridurre l’acqua ossigenata con un elettrodo argento-cloruro di argento. L’acqua ossigenata generata in concentrazione correlata al glucosio, quindi dalla differenza di potenziale/corrente che si vede, si può risalire alla quantità di glucosio che si aveva (principio di rilevazione del glucosio usato in tutti i sensori). Sensori Potenziometrici Questi sensori misurano un cambiamento di potenziale agli elettrodi causato da ioni o da una reazione chimica ad un elettrodo. I sensori potenziometrici maggiormente utilizzati sono per la misura del pH e per il riconoscimento molecolare (BioFET). 7 Scalfaro/Grieco Nobile 31 Bionanotecnologie (Ciardelli) 11/05/2022 Transistor a effetto di campo (FET) La sfida dei bionanotecnologi è portare questo sensore su un dispositivo nanometrico, in questo mi aiuta la microelettronica la quale ha sviluppato dei dispositivi chiamati transistor a effetto di campo (tecnologia alla base dei sensori potenziometrici) che hanno una zona chiamata gate, esposta all’esterno, che va a misurare delle variazioni dell’ambiente redox circostante. Tipicamente è fatto da materiale semi-conduttrice (quadrati in beige nell’immagine indicati con s e D) che ha una sorgente e un drain, regione che emette elettroni e una regione che è in grado di raccoglierli. Si vorrà costruire un sensore biologico, chiamato anche BioFET, in modo da rilevare un evento biologico. La source e il drain sono collegati a un amperometro/potenziometro. L’altro estremo del circuito è il back gate, in genere fatto di silicio, quindi un conduttore. Tra il gate e il back gate c’è uno strato isolante, per esempio di silice (ossido metallico) infatti questi sensori si chiamano anche MOSFET, dove MO sta per metal oxide. Si vedrà ora come si può costruire il FET in modo da mettere al posto del semiconduttore un oggetto sensibile all’ambiente biologico, quindi un oggetto molto sensibile alle variazioni di corrente in un ambiente molto piccolo, per questo si usano per esempio i nanotubi di carbonio. Il carbone ha tre forme allotropiche, tra cui il diamante e la grafite. Queste hanno una differenza di struttura elettronica del carbonio: nel diamante il carbonio è sp3, è isolante, mentre la grafite ha un’ibridazione sp2 ed è conduttrice, perché ci sono elettroni pigreco non impegnati nei legami che sono labili e possono condurre. Che cos’è la grafite? La grafite è formata da tanti piani di carbonio ibridizzati sp2 impilati uno sull’altro; tra questi piani non c’è un legame chimico, infatti spezzare la mina di una matita è molto facile perché si vanno a separare due strati tenuti insieme da interazioni abbastanza deboli. Se si immagina di tagliare a fette sottilissime la grafite fino ad ottenere uno strato monomolecolare, si otterrebbe un foglio di carbonio formato da anelli (esagoni) di carbonio con gli elettroni che girano sopra e sotto. Questo foglio non prende il nome di grafite, bensì grafene. Se si immagina di prendere il foglio di grafene e di avvolgerlo in un tubo si ottiene un nanotubo. Si può avvolgere il nanotubo secondo vari assi e questo va a cambiare la conduzione: in generale i nanotubi sono o dei conduttori o dei semiconduttori. Tale condizione avviene attraverso il passaggio di elettroni nel tubo, il quale non è altro che un filo nanometrico percorso da corrente, che seppur molto piccola dà una densità di corrente molto alta e quindi si rileva facilmente. Si costruisce quindi il gate nel BioFET con il nanotubo e unisce la source al drain: invece di esserci uno strato di ossido metallico drogato con deficienza o ricchezza di elettroni, si mette il nanotubo. Al nanotubo non interessa degli eventi biologici, quindi deve essere modificato in modo tale da essere sensibile all’ambiente biologico. 8 Scalfaro/Grieco Nobile 31 Bionanotecnologie (Ciardelli) 11/05/2022 A tale scopo si è pensato di immobilizzare sul nanotubo delle proteine come per esempio la glucosio ossidasi, cioè un elemento sensibile per misurare il glucosio. Costruendo questo oggetto si è costruito un nanosensore per la misura della concentrazione di glucosio su campioni piccolissimi, magari a valle di un circuito microfluidico. Rilevazione elettrica – Esempio: immobilizzazione di proteine Come si immobilizza la proteina sul nanotubo? In questo esempio la proteina è la Zn-Cd metallotioneina ed essa utilizza i suoi gruppi amminici NH2 (cerchiati in azzurro) per legarsi al nanotubo (tutte le proteine hanno a disposizione gruppi amminici, quindi funzionano tutte nello stesso modo). Tra il nanotubo e la proteina si utilizza una molecola ponte (o bifunzionale) che è l’estere attivo dell’acido 1pirenbutanoico. Si tratta di un acido butanoico (quattro atomi di carbonio CH3 − CH2 − CH2 − COOH) dove uno degli idrogeni viene sostituito dal pirene (cerchio rosso) si ottiene così l’acido pirenbutanoico. Il pirene è un aromatico condensato in quanto sono quattro anelli attaccati. Il gruppo pirene e il nanotubo sono due specie molto simili, hanno entrambi elettroni pigreco e possono interagire per interazione non covalente, detta pistacking (impilamento pigreco) ed è un’iterazione idrofobica che avviene quando si hanno delle molecole aromatiche. Avvicinando il pirene gli anelli 3-pigreco iniziano ad interagire creando dipoli indotti (cerchio lilla). Dall’altra parte invece c’è il legame tra proteina e molecole e si sfrutta il gruppo carbossilico (cerchio verde) che qui è attivato dalla idrossisuccinimmide (cerchio arancione). Si era già parlato della idrossisuccinimmide nella funzionalizzazione superficiale, nella quale si attivavano i gruppi carbossilici con l’NHS + EDC (carbodiimide), modo per rendere un acido carbossilico più reattivo verso i gruppi amminici creando un estero attivo. La reazione è la seguente: Funzionalizzo con l’idrossisuccinimmide l’acido carbossilico posso scriverlo come estere attivo: reagisce con una proteina (P), si ha la sostituzione nucleofila acilica, si perde acqua (ricordo che la sostituzione nucleofila avviene in due passaggi: prima addizione e poi eliminazione), si forma il 9 Scalfaro/Grieco Nobile 31 Bionanotecnologie (Ciardelli) 11/05/2022 legame ammidico tra la proteina e il gruppo dell’estere attivo. Quindi, da una parte si lega la proteina con legame ammidico, dall’altra si lega il nanotubo con l’interazione pi-stacking tra il pirene e il nanotubo stesso. NB: Questo è un metodo generale per legare una qualsiasi proteina ad un nanotubo. Nello specifico, ad esempio, si può legare la glucosio ossidasi ottenendo un biosensore per il glucosio alla nanoscala. Nell’immagine a fianco viene mostrata la proteina glucosio ossidasi (indicata con le freccine) la cui immagine è stata ricavata attraverso una tecnica chiamata HRTEM. Vedere una proteina al microscopio è impossibile, grazie a questa tecnica (TEM) che ha la migliore risoluzione, dà la possibilità di visionare proteine solamente nel caso in cui queste contengono metalli (zinco e metalli pesanti). Microarrays DNA Microarrays Si vede ora come i sensori di cui si è parlato fino ad ora (elettrici, ottici, meccanici) vengono sfruttati all’interno di un formato array allo scopo di rilevare entità multiple simultaneamente. Si immagini un pavimento a mattonelle dove ogni mattonella contiene uno di dei sensori con una sequenza di DNA specifica. Ogni mattonella ha la sua sequenza ed il sensore andrà a vedere su quale mattonella il DNA che si sta analizzando va ad ibridizzarsi. Invece di fare tante mattonelle si può anche formare un pavimento in cui si ha su ciascuna mattonella un pezzetto del genoma umano così che quando poi si ha il DNA frammentato si mette sopra e colorandolo diversamente si può andare a vedere dove ciascun pezzo si va ad ibridizzare. La prima cosa da fare è immobilizzare le sequenze cioè le capture probes, sulle varie mattonelle e poi devo analizzare le target probes che si mettono sul sensore. Quindi un microarray è fatto da mattonelle ognuna con una sottomattonella la quale ha una sequenza specifica di DNA; si possono mettere due campioni diversi provenienti da due tipi di cellule diverse, ibridizzarle insieme ed andare a vedere le differenze di ibridazione. 10 Scalfaro/Grieco Nobile 31 Bionanotecnologie (Ciardelli) 11/05/2022 Si possono avere tante sequenze di DNA che sono state prodotte con metodi di laboratorio oppure si possono costruire le sequenze nucleotide per nucleotide. Quindi si possono avere e poi immobilizzarle una alla volta, oppure per ogni mattonella si va a costruire il DNA sopra in maniera specifica. Per quando riguarda le dimensioni si parla di macroarrays sui 300 microns, mentre sotto i 200 microns si parla di microarrays. Microarrays – Tecnica ottica Questa è la tecnica che serve per costruire sull’array sequenze nucleotidiche diverse. La superficie array può essere in vetro o un chip di silicio che viene modificato al fine di avere dei gruppi amminici in superficie. Questi gruppi amminici vengono protetti con dei gruppi X i quali sono legati all’azoto con un legame fotolabile, cioè se viene irraggiato con una radiazione luminosa il legame si rompe. Quindi si ha una superficie con tutti questi gruppi amminici protetti, si mette sopra una maschera da litografia (viste per la micro e macro fabbricazione) e il raggio con la luce: nelle zone non coperte dalla maschera si staccherà il gruppo X, mentre nelle zone protette il gruppo X rimarrà. A questo punto si arriva con il primo nucleotide (indicato con A nell’immagine), sempre legato al gruppo X, e si lega alle zone libere, quindi nella zona che era irraggiata mi ritrovo il nucleotide A. A questo punto si rimette la maschera in posizione diversa in modo da lasciare scoperta una regione diversa. SI irraggia, i gruppi X vanno via ed il gruppo B si andrà a legare nelle zone che ho deprotetto. Quindi nella prima zona si hanno due A, nella seconda invece si hanno due B. Andando avanti si possono costruire delle catene che però non possono essere troppo lunghe perché potrebbero esserci degli errori, tipicamente una base magari non si lega o si deprotegge per errore anche un altro punto al quale si attaccherà una base che non si vuole legare lì. Per questo motivo sopra i 25 nucleotidi si sconsiglia questo metodo in quanto si potrebbero creare sequenze diverse da quelle volute. Si ricorda che lo scopo della tecnica ottica è quello di deproteggere in modo selettivo siti di legame su cui possono essere “costruite” a piacere sequenze nucleotidiche. 11 Scalfaro/Grieco Nobile 31 Bionanotecnologie (Ciardelli) 11/05/2022 In questa immagine viene rappresentato lo stesso funzionamento ma da un’altra prospettiva. 1. Il wafer di silice o di vetro funzionalizzato in questo caso con ossigeno, quindi si avranno dei gruppi OH anziché OH2 ma la filosofia non cambia. 2. Si ricopre con delle palline blu che rappresentano il blocking compound (composto di bloccaggio) che prima si era chiamato X. 3. Si mette la maschera. 4. Si irraggia. 5. Dalla zona non coperta dalla maschera si staccano le palline blu. 6. Si arriva quindi con le palline rosse unite a quelle blu, cioè l’adenina che è una base, unita al composto di blocco. L’adenina si andrà a legare ai gruppi ossidrilici che si erano scoperti con l’irraggiamento, si lega solo nella zona che era scoperta dalla maschera. 7. L’adenina si porta dietro il gruppo X, quindi togliendo la maschera si ha una zona con palline blu e una zona con palline rosse. 8. Si mette la maschera in un’altra zona ruotandola. 9. Con l’irraggiamento si rimuovono altre palline blu in una zona diversa dalla precedente. 10. Si aggiungono palline verdi (timina) unite alle blu, significa che si ha una timina legata al gruppo protettore, la timina si andrà a legare nelle zone dove ci saranno gruppi ossidrilici liberi. 11. Si ottiene quindi una zona verde (di timina) e sopra lo strato di gruppi protettivi e si toglie la maschera e si ripete il ciclo. 12. Si va avanti in questo modo fino a quando si impilano 25 nucleotidi in sequenze diverse a seconda della regione del microarray. Questo metodo si chiama anche Photolitographic masking ed è adottata dall’azienda Affymetrix che produce microarray. 12 Scalfaro/Grieco Nobile 31 Bionanotecnologie (Ciardelli) 11/05/2022 Microarrays – Tecnica elettrica Nel caso di catene più lunghe si parte da nucleotidi preformati e si usa la tecnica elettrica. a) In questa tecnica si ha il chip con l’attachment layer in cui inserisco dei contatti metallici (le barrettine nere nella figura). Caricando positivamente uno di questi contatti, si attirano le sonde di cattura che sono cariche negativamente (dato che il fosfato ha uno scheletro negativo). Una volta che incontrano la zona si creeranno le reazioni con l’attachment layer quindi quando si rimuove la carica loro rimangono legate lì. b) Si ripete l’operazione per tutte le altre ragioni, immobilizzando sequenze uguali o sequenze diverse a seconda di come si sta costruendo l’array. c) Si introduce il probe target che si vuole identificare. Si immagini che questo campione, marcato fluorescente perché si vuole vedere il segnale, sia costituito da due tipi di catene diverse: quelle unite e quelle tratteggiate (vedi figura), questo simboleggia due sequenze nucleotidiche diverse. d) Si carica positivamente per esempio la zona centrale la quale attirerà tutte le molecole indistintamente, in quanto vengono attirate non in base alla sequenza nucleotidica ma perché sono cariche negative avendo lo scheletro fosfato. Perciò tutte le molecole si concentrano sulla mattonella caricata positivamente. e) Successivamente si inverte la polarità cioè da carica positiva a negativa. In questo modo, le molecole non complementari (quelle disegnate unite) si allontaneranno per la repulsione elettrostatica dovuta alle cariche negative sia sul metal contact sia sulla molecola; quelle complementari (disegnate tratteggiate) si sono ibridizzate, i legami idrogeno a doppia elica tengono ben strette le molecole non si possono allontanare nemmeno dandogli la repulsione elettrostatica. A questo punto si va a cercare la fluorescenza e se la si trova vuol dire che nel campione si aveva una sequenza complementare a quella che si era precedentemente immobilizzato (nella figura b). Rivedi immobilizazzione tra la capture probes e l’attachment layer, il quale rende reversibile il legame una volta attirate le molecole con la carica. Riassumendo: la tecnica ottica una serve per costruire le catene nucleotide per nucleotide, mentre quella elettrica per immobilizzare selettivamente delle sequenze in delle regioni specifiche. Attenzione: la tecnica ottica ed elettrica non sono da confondere con le tecniche di rilevazione. La seconda di queste due è una tecnica elettrica ma poi la rilevazione la si fa tramite un rilevatore a fluorescenza. 13 Scalfaro/Grieco Nobile 31 Bionanotecnologie (Ciardelli) 11/05/2022 Microarrays – Protocollo di analisi Vista la tecnica di costruzione di un microarray, si vede come si possono ricavare informazioni tramite il microarray. a) Si immagina di avere due DNA, uno colorato in verde ed uno in rosso, che derivano da due individui diversi. b) Questi DNA si legano sul microarray il quale contiene in principio tutto il genoma umano, cioè tutte le possibili sequenze che si possono trovare. c) Si ha l’ibridazione. d) Si produrrà un’immagine irraggiando il microarray con dei laser che corrispondo ai colori con cui avevo colorato le sequenze fluorescenti. Bombardando con il verde, si vede dove questi DNA si sono ibridizzati sul microarray, lo stesso faccio con il laser rosso vedendo dove si sono ibridizzati i DNA rossi sul microarray. A questo punto mescolo i due segnali, cioè li sommo: dove è finito solo il verde vedo verde, dove è finito il rosso vedo solo rosso e devo ci sono entrambi vedo giallo. Se avessi due campioni uguali vedrei solo giallo. e) Le differenze tra i due campioni possono voler dire che ci sono state delle mutazioni, oppure che si parla di due individue diversi, oppure che le cellule stanno producendo dell’RNA diverso. Queste informazioni le ottengo leggendo il grafico che viene fuori da questo processo di ibridazione, imaging e poi analisi di immagini computerizzata opportunamente (una cosa così non si potrebbe fare a mano). Analisi Genomica: ibridizzazione genomica comparativa (aCGH) Si può mettere solo DNA e fare quella che si chiama ibridazione genomica comparativa, quindi si confronta il DNA di un paziente rispetto al DNA di controllo. Per esempio, si esamina un bambino malato rispetto al parente sano, si va a fare il confronto e si vede se ci sono mutazioni nel genoma che hanno causato la malattia genica. 14 Scalfaro/Grieco Nobile 31 Bionanotecnologie (Ciardelli) 11/05/2022 Analisi Genomica: ibridizzazione genomica comparativa (aCGH) su CDNA Si possono prendere due famiglie di cellule e fare ibridazione comparativa sul cDNA. Il cDNA è il DNA che si produce facendo una trascrizione inversa dell’RNA messaggero. Prendendo due famiglie di cellule, queste produrranno un RNA messaggero diverso perché ad esempio sono cellule tumorali e quindi producono proteine diverse dalle cellule sane, perciò il loro trascrittoma (cioè l’mRNA) sarà diverso. Sull’mRNA non si può fare questa procedura direttamente, si deve fare prima un’operazione di trascrittasi inversa, produrre i cDNA corrispondenti (che si ricorda essere l’unione degli introni) e a questo punto si procede come prima e si vede dove sono le differenze tra le due famiglie. Domanda (Non si sente) Risposta: o in fase di amplificazione o in fase di purificazione del campione si può fare un labeling, cioè una marcatura del DNA, i DNA di diverse provenienze vengono colorati diversamente. Una volta ottenuti i due DNA distinguibili si possono buttare sull’array e bisogna buttarli insieme poiché per vedere le differenze devono ovviamente arrivarci insieme. Sul canale rosso, ad esempio, vedo il DNA di A, su quello verde di B e dove si vede giallo vuol dire che i pezzetti di DNA erano uguali per A e per B. 15 Cascone/Zito 32 BIONANOTECNOLOGIE (Ciardelli) 12/05/2022 Biomems-Esempi applicativi Riassunto lezione precedente Nella lezione precedente è stato spiegato come i vari sensori, che si sono imparati a conoscere, possono essere integrati in un formato, che è quello del microarray, nel quale si raggruppano un numero molto alto di elementi sensibili nello stesso microchip. L’elemento sensibile prevalentemente più usato è quello che permette di analizzare campioni di materiale genetico e determinarne differenze, sequenze e quindi, conseguentemente, possibili informazioni su patologie in atto, mutazioni e identificazione di confronto tra DNA di individui diversi. Si è visto quindi un’immagine, riportata qui di fianco, che poi elaborata al computer può fornire questo tipo di informazione. Adesso, si vuole andare a ricapitolare e vedere degli esempi pratici legati all’implementazione del microarray. MICROARRAYS-PROTOCOLLO DI ANALISI Si immagini di avere due campioni di DNA, uno marcato in verde che proviene da cellule normali e l’altro marcato in rosso che proviene da cellule di tumore, che si possono andare ad ibridizzare sul microarray. Si va a vedere cosa ne esce fuori: si avranno degli spot verdi dove soltanto il DNA normale si è ibridizzato, degli spot rossi dove si è ibridizzato solo il DNA tumorale e infine degli spot gialli dove invece avremo ibridizzazione comune di entrambi i campioni. Quindi in spot specifici, dove si trovano rosso e verde che corrispondono a determinati geni che si sono immobilizzati sul microarray, si trovano delle differenze di sequenze tra le due popolazioni (quella sana e quella tumorale). Con questa operazione, che prende il nome di ibridizzazione genomica comparativa (aCGH), si può andare a identificare sul DNA se ci sono delle mutazioni che possono essere responsabili di patologie. Si immagini di avere un figlio di genitori sani, che però manifesta qualche tipo di patologia che si sospetta di origine genica. Si può prelevare il DNA da questo paziente, marcarlo con un colorante verde e raccogliere il campione e poi, eventualmente, amplificarlo con la PCR. La stessa operazione si ripete sul controllo, che è l’individuo sano: si prende il DNA, si marca con un altro colore e lo si utilizza come controllo. Adesso si ha quindi il DNA di controllo e il DNA del paziente da analizzare; si mescolano in parti uguali i due campioni e si ibridizzano, ovvero si fa sì che le sequenze complementari vadano a cercarsi sul microarray rivestito di frammenti di DNA genomico 1 Cascone/Zito 32 BIONANOTECNOLOGIE (Ciardelli) 12/05/2022 (sonde o cloni). Sul microarray posso avere tutto il genoma umano. A questo punto si fa dunque l’ibridizzazione e si va a leggere il microarray: si possono trovare punti di zone in cui si sono mobilizzati certi geni con ibridazione uguale e in cui quindi non ci sono differenze tra i due campioni, oppure si possono trovare zone rosse dove il controllo prevale su quello del paziente e dove quindi vi è una riduzione del dosaggio di quello specifico gene nel campione; oppure ancora, analogamente, si individua un aumento del dosaggio laddove si trovano macchie verdi. Tutto ciò si fa sul DNA e si vanno a vedere se ci sono delle mutazioni nel genoma. Si può approntare (preparare) questa ibridizzazione genomica comparativa anche sul cDNA (DNA complementare che si ottiene per trascrizione inversa del RNA messaggero o di un RNA in generale): si immagini di avere sempre un campione B di cellule da cui si preleva l’RNA e un campione A, da cui si preleva sempre l’RNA; si genera il DNA complementare (perché sul RNA non si può fare ibridizzazione, in quanto non ha doppie eliche sufficientemente stabili); al contempo si può anche marcare il campione usando, per esempio, nucleotidi fluorescenti(quando si fa la trascrizione inversa si sintetizza già il DNA rosso oppure il DNA verde). In ogni spot si hanno sequenze diverse. Si va a leggere il campione, prendendo, per esempio, la regione cerchiata in verde e ingrandendola: si trovano dei punti verdi (qui il campione B prevale su A, cioè esprime dei geni in maniera più intensa rispetto ad A), dei punti rossi (dove A prevale su B, dove si ha un’espressione di A di certi geni in maniera più intensa che di B) e, infine, si trovano dei punti gialli dove rosso e verde si equivalgono (dove i campioni A e B sono uguali e non si hanno differenze di espressione genica). Qui si sta ricavando un’informazione diversa si sta guardando nei due campioni se ci sono differenze nell’espressione genica e questo si traduce, anche se non in maniera univoca ma con buona probabilità, in una diversa produzione di specifiche proteine (per il dogma centrale della biologia molecolare DNARNAPROTEINA). Adesso si vedranno due filmati in cui si vanno a vedere degli esempi applicativi. 2 Cascone/Zito 32 BIONANOTECNOLOGIE (Ciardelli) 12/05/2022 COMMENTO AL PRIMO FILMATO Si vedono gli spot, dove ogni spot ha la sua sequenza e si vede come questa ibridizzazione non è altro che una formazione di doppie eliche spurie tra due sorgenti diverse. Si possono fare tante cose: Profilazione di espressione genica si prende un tessuto, per esempio il fegato, si estrae l’RNA messaggero che viene espresso in quel momento, si produce il cDNA complementare su questo mRNA, poi si prende il chip con tutto il genoma (il microarray contiene pezzetti di genoma) e si va ad ibridizzare il campione. I geni che sono espressi si vanno ad identificare andando a vedere quali macchie sono accese (andando a vedere la complementarietà tra il cDNA e alcune sequenze mobilizzate in zone specifiche), dove cioè si trova fluorescenza e si hanno quindi dei DNA positivi. Microarray di proteine come analogia, si possono sempre usare gli anticorpi e mobilizzarli sul chip. In questo caso ci saranno le proteine marcate (come sostituti dei segmenti di DNA sui microarrays) che si potranno legare e che quindi si potranno andare ad identificare; si possono identificare anche delle interazioni tra proteine (per esempio tra alcune proteine e la proteina in oggetto, basta andare a vedere dove c’è lo spot). Le proteine marcate arrivano e quelle complementari agli anticorpi si ibridazzano nelle varie regioni. Chiaramente le proteine sono moltissime, quindi non si avrà mai un array dove si hanno tutti gli anticorpi per le proteine possibili. Analisi genomica comparativa, di cui si è appena parlato si ha sempre un campione di riferimento e uno da analizzare (Test vs. Control) colorati con colori diversi, messi insieme e ibridizzati sull’array. Si fa un’analisi e si possono così identificare piccole e grandi delezioni o guadagno di segnale. Si possono quindi identificare, nel genoma cellulare, eventuali differenze che ci possono essere (per esempio: cambi di genoma tra cellule di individui normali e cellule di individui malati, come nel ritardo mentale dove si possono confrontare i cambiamenti che ci sono tra i genomi dei genitori e l’individuo patologico). 3 Cascone/Zito 32 BIONANOTECNOLOGIE (Ciardelli) 12/05/2022 COMMENTO AL SECONDO FILMATO Si vedono le cellule tumorali e le cellule normali. Successivamente viene isolato l’RNA. Si prende il cDNA. Il micro array viene preparato con un sistema robotico che preleva i campioni Li localizza nei singoli spot (con la tecnica top down). 4 Cascone/Zito 32 BIONANOTECNOLOGIE (Ciardelli) 12/05/2022 Un singolo spot ha tutte queste sequenze gialle di cattura su cui si può ibridizzare il DNA. Ci sono zone verdi dove prevale il tumore sul normale, gialle dove sono uguali e rosse dove prevale il normale sul tumore. RIPASSO BASI DEL DNA Un po’ di anni fa gli scienziati capirono che c’erano molti modi per studiare geni, cioè per esempio mappandoli, inducendo mutazioni, clonandoli, analizzando proteine etc, secondo l’ingegneria genetica e le biotecnologie. Il problema è che c’è un numero enorme di geni (nell’uomo sono 20 mila) e la capacità umana era di studiare uno o pochi geni alla volta, ma essendoci tantissimi geni, studiare tutti i geni con l’approccio tradizionale, richiederebbe troppo tempo. Motivo per il quale si è “inventato” il microarray, il quale permetteva di studiare più geni contemporaneamente; quindi capire cosa fa ciascun gene in un singolo esperimento. Quindi, se la genetica (XX secolo) studiava i singoli geni, la genomica (XXI secolo) è quella che, sfruttando i microarray, studia migliaia di geni contemporaneamente. Una delle cose che la genomica può fare è misurare espressione genica; a tal proposito si prendano delle cellule diverse nel corpo umano: della pelle, dei muscoli, gli eritoblasti (che diventeranno globuli rossi), cellule di Langerhans (che producono l’insulina nel pancreas) e i melanociti (cellule del pigmento che permettono l’abbronzatura). Queste cellule hanno tutte lo stesso DNA al loro interno, salvo pochissime eccezioni, però sono diverse le une dalle altre ed esprimono dei geni differenti: si prendano ad esempio le cellule del muscolo e si guardino 4 geni, i quali saranno 2 geni accesi 1 e 2 geni spenti. La cellula muscolare avrà attivi i geni per l’actina e la miosina (invece i melanociti produrranno la melanina, che è un pigmento, e le cellule di Langerhans produrranno insulina). 1 Avere dei geni accesi significa produrre dell’mRNA in quel momento (cioè quando sono accesi) e far tradurre questo mRNA in proteine. 5 Cascone/Zito 32 BIONANOTECNOLOGIE (Ciardelli) 12/05/2022 Quindi le cellule muscolari avranno i geni per l’actina e la miosina accesi e quelli per insulina e melanina spente; invece, le cellule di Langerhans avranno i geni per l’actina e l’insulina accesi e i geni per la miosina e melanina spenti; nei melanociti i geni per la melanina saranno accesi invece. Quindi, se si può misurare la quantità di mRNA che è presente in una cellula di un tessuto, si potrebbe fare un catalogo genetico di quali tipi di processi biologici sono in atto in quelle cellule in quel momento e confrontando questi profili di espressione genica, si può capire cosa rende le cellule differenti tra di loro (questo sia tra cellule di tessuti sani, ma anche tra cellule di tessuti sani e tessuti patologici). Lo strumento che fa questo è il microarray, il quale permette quindi di evidenziare in unico esperimento le differenze di espressione genica tra due tipi di cellule. Come si fa il microarray? Si sequenzia l’intero genoma dell’organismo che si sta studiando (già è stato fatto per gli uomini) e, con un grosso lavoro computazionale, si capisce dove i geni sono localizzati nelle varie sequenze. Una volta fatti questi geni, si possono posizionare sul microarray con dei sistemi robotici e poi si fanno dei test di controllo sulle varie coppie di geni per trovare quei casi in cui la PCR non ha lavorato bene e si ripetono questi passaggi finché non si hanno sufficienti coppie di geni. Queste catene sintetizzate vengono separate, al fine di avere delle catene libere e pronte per l’ibridazione con il campione. Con i robot vengono poste le gocce di geni di DNA a singola catena nelle varie file e colonne su una slide da vetro da microscopio e il microarray è fatto. I calcolatori permetteranno anche di creare e gestire un database che abbia traccia di dove sono i vari geni nel microarray, poi ci sono dei controlli di qualità (per esempio con sequenze target note, per verificare che tutte gli spot contengano la stessa quantità di DNA di cattura, perché se si confrontano i colori e ci sono quantitativi differenti, non saranno risultati attendibili). Quindi si prende il DNA microarray: nell’esempio si prende un GeneChip, il quale è fatto con una tecnica simile a quella dei computer (in questo caso non si crea, ma si utilizza un microarray comprato, anche perché crearselo da soli è molto complicato). Preso il microarray, ci sono migliaia gli spot, in cui ogni spot rappresenta un gene, quindi tante copie di una sequenza di DNA. Si comincia l’esperimento avendo due tipi di cellule: quelle col cancro e quelle sane. Per riconoscerle, si possono guardare al microscopio confrontandone la forma, infatti, in diagnosi clinica molto spesso si fa così. Ma la forma delle cellule col cancro non sempre è diversa da quella delle cellule sane, quindi questo approccio non è sempre efficiente. Nelle cellule cancerose, ci sono dei geni corrotti che impediscono di controllare la proliferazione (nel video il gene 3), quando questi funzionano male, le cellule proliferano in maniera incondizionata. Questo non succede sempre, spesso infatti in un tumore si trovano più geni corrotti. 6 Cascone/Zito 32 BIONANOTECNOLOGIE (Ciardelli) 12/05/2022 In questo esperimento si usa un Dna microarray per confrontare le differenze in espressione genica tra cellule del cancro e cellule sane. Oltre al Dna, si usano dei campioni, uno scalpello, una soluzione solvente, pipette e puntali, Vortex, Microcentrifuga, colonne con palline di Oligo-dT, tampone, coloranti, soluzione di lavaggio e scanner. Si vuole rispondere alla domanda: che differenza c’è tra cellule sane e cellule col cancro? Quali geni sono spenti o accesi? Si misurerà l’mRNA. Si prelevano cellule sia dal tumore sia da una porzione di tessuto sano. Successivamente, per isolare l’RNA si prende il solvente e lo si inserisce nei due tubi contenenti le cellule. In seguito, si inseriscono i due tubi nel vortex e poi nella microcentrifuga. Una centrifuga è uno strumento che gira a velocità molto alta e separa materiali in base alla loro dimensione e densità. A questo punto, nei tubi avrò al fondo Dna, proteine e altro, e in superficie avrò l’RNA. Il DNA non sta in soluzione perché le sue catene sono più lunghe di quelle del RNA. Ora si preleva il surnanatante dove c’è l’RNA: si faccia attenzione che qua non si ha solo quello messaggero, ma tutti i tipi di RNA. Come si isola l’mRNA? Si sfrutta la sua una coda di poli-A (basi tutte A). Le colonne di Oligo-dT entrano in gioco adesso: sono infatti delle sfere che si mettono in un tubo da cromatografia, funzionalizzate con delle code di poli-T. Si preleva quindi dal primo campione la miscela di RNA e la si inserisce nel tubo contente le code di poli-T; in questo modo l’mRNA si aggancia a queste code e il tRNA e rRNA vengono scartati. (si procede nello stesso modo per l’altro campione). La situazione è ora quella che si vede nella figura: l’mRNA ibridizzato con le code di poli-T. Ora è necessario recuperare l’mRNA: si usa la soluzione tampone. L’accoppiamento tra basi A e T è molto solido se non si cambiano le condizioni (come il pH,forza ionica); la soluzione tampone infatti riesce a far staccare le code di poli-T da quelle di poli-A proprio cambiando queste condizioni. L’mRNA è ora purificato sia nelle cellule sane che nelle cellule col cancro. 7 Cascone/Zito 32 BIONANOTECNOLOGIE (Ciardelli) 12/05/2022 Successivamente si produce il cDNA marcato: si hanno due soluzioni (verde e rossa). Il fatto di fare una copia di cDNA e di marcarlo, permette di visualizzarlo meglio e di avere ibridazioni più stabili di quelle che si avrebbero nel RNA. Quindi, si prende il mix di verde e lo si inserisce nel campione sano. All’interno avviene la trascrittasi inversa con i nucleotidi marcati e, facendo partire la sintetizzazione, si avrà il cDNA complementare al mRNA iniziale. Si procede nello stesso modo per il campione col cancro, usando però un colorante rosso. A questo punto si può procede con l’ibridazione su microarray: verranno separate e ibridizzate due catene di DNA. Per avere ibridizzazione basta che ci sia una sequenza complementare. In questo modo si avrà DNA da due sorgenti diverse. Nell’immagine si vedono i vari spot: in ognuno c’è la stessa sequenza di DNA, ma tra due spot diversi avrò due sequenze diverse. Sul computer si vedrà una legenda che dichiara in ogni punto che gene si ha. (informazione data dal produttore). Quindi, si procede con l’esperiemento svuotando entrambi i tubi sul microarray, in questo modo le sequenze colorate di cDNA andranno a cercare la catena complementare. Nella regione rossa, il cDNA del cancro si è ibridizzato, nella regione verde si è ibridizzato quello delle cellule sane e nella regione gialla si sono ibridizzati entrambi. Saranno rimasti sia cDNA non ibridizzati, sia spot bianchi dove non si è ibridizzato nulla. Si prosegue con un lavaggio del microarray per togliere tutto ciò che è legato in modo debole e si fa lo scan, cioè si leggono i colori: si inzia con quello verde memorizzando la posizione di questi spot, si procede con quello rosso e si mettono insieme le immagini. Ogni spot che contiene sia rosso che verde, comparirà in giallo: i geni espressi in queste posizioni sono gli stessi nelle cellule del cancro e in quelle sane. Guardiamo le macchie rosse: mostrano i geni che producono più mRNA delle cellule cancerose rispetto alle cellule sane. Cosa vuol dire? Che nel cancro sono sovra espressi, le macchie verdi invece mi dicono quali geni sono sottoattivi. Ovviamente molto spesso non tutti i geni rossi sono sovraespressi perché sono malati. Mettiamo di essere un ricercatore interessato a studiare geni che hanno un dato livello di attività nelle cellule del cancro della pelle, quali macchie colorate sceglieremo di studiare? Rosso, verde, giallo, nero? Quelle rosse. Possono essere controllate da un gene andato a male, ad esempio il gene 4263. È uno dei geni noti per essere sovraespressi nelle cellule del cancro. Esso produce una proteina il cui ruolo è spegnere l’espressione di altri geni, di che colore ci aspettiamo che siano le macchie dei geni spenti da questa 8 Cascone/Zito 32 BIONANOTECNOLOGIE (Ciardelli) 12/05/2022 proteina? Verde. Il gene invece 6219 è normalmente sovraespresso nelle cellule della pelle, è acceso nelle cellule sane. Nel nostro campione di cancro questo gene ha un difetto: mentre il gene ancora produce l’RNA messaggero, il difetto gli impedisce di essere tradotto in proteina. Di che colore è il gene 6219 su macroarray? Giallo. Questo è una dimosttrazione di fallimento dell’approccio, di impossibilità di rilevare tutti i problemi che può avere una popolazione di cellule cancerose. Noi abbiamo una situazione in cui anche se l’espressione dell’RNA in genere indica uno spessore di proteine, non è sempre il caso. In questo caso il gene 6219, acceso sia nel cancro che nelle cellule sane, produce un RNA che produce poi le proteine. Nelle cellule del cancro il passaggio di trascrizione è attivo, ma è disattivato quello di traduzione. Questa è una limitazione della nostra tecnologia. Come si può risolvere? Dobbiamo utilizzare l’analisi proteica, cioè utilizzare dei macroarray con ad esempio degli anticorpi. Quello che non può fare un microarray DNA è dirvi quale gene è effettivamente corrotto e quale causa la malattia. Se c’è un gene che si comporta male infatti può non essere identificato. Andiamo a vedere un paio di esempi di macroarray. Primo esempio applicativo: il SAGGIO IMMUNOLOGICO ha come scopo l’intercettazione di cellule tumorali su un macroarray. L’idea è: ho il mio chip, lo faccio passare sopra delle cellule, se queste cellule sono patologiche o sovraesprimono un recettore cellulare, io posso catturarle e quindi quantificarle sul mio microchip. Quello che immobilizzo sul chip sono degli anticorpi di cattura e riconosceranno le cellule riconsocendo quella specifica proteina che le cellule sovraesprimono sulla loro superficie. Le caratteristiche di questo saggio dal punto di vista pratico sono: un chip microfluidico con 11 percorsi cioè 11 canali cioè a micromosaico e su questi percorsi faccio muovere le cellule e qui immobilizzo degli anticorpi. Le linee hanno 30 micron di larghezza. Sopra chiudo tutto con uno strato di silicone, uso anticorpi CD-44 specifici per recettori che hanno cellule di topo. Com’è fatto il mio chip? In questa zona (in rosso) ho il caricamento, dove vado a mettere le mie cellule, cellule che per essre rese visibili sono state transfettate con la proteina verde in modo che siano fluorescenti e io le possa vedere nel loading pad. Il tutto è ospitato da un chip di silicio microfluidico ottenuto con tecniche di microfabbricazione. La seconda zona (indicata in blu) è la zona dvoe dispongo i miei anticorpi: 9 Cascone/Zito 32 BIONANOTECNOLOGIE (Ciardelli) 12/05/2022 Quindi ci sono questi 11 canali dove isolo e immobilizzo i miei anticorpi, questa è la zona di cattura. Poi c’è una parte dove ci sono i canali (in giallo nell’immagine) e la parte finale dove ci sono i capillari che aspirano (in verde). Ovviamente il tutto è dotato di un termostato che regola la temperatura tra 20 e 27 gradi. Poi sotto ho il silicone e sotto un vetrino che mi permette di osservare con il microscopio quello che sta succedendo. Quello che io poi vedo lo vediamo in un filmato, dove alcune cellule passano senza fermarsi mentre altre vengono immbolizzate nel canale. Ci sono dei fotogrammi del filmato: 10 Cascone/Zito 32 BIONANOTECNOLOGIE (Ciardelli) 12/05/2022 I cerchiolini bianchi evidenziano quelle cellule che si sono immbolizzate. Si può anche riportare la posizione delle varie cellule: La prima cellula l’abbiamo vista muoversi fino a una distanza di 300 micron e poi l’abbiamo vista fermarsi. Quindi posso fare questo per tutte e 6 le cellule che si sono fermate. Tutte le volte io ho una parte di fluido in cui scorre la cellula, un punto in cui c’è il legame e dopodichè è immobilizzata. Se ovviamente le cellule non hanno il recettore per lo specifico anticorpo, sono quelle cellule che noi vediamo passare e scorrere via. DOMANDA: Ogni canale contiene tutti gli anticorpi che vengono utilizzati o sono distribuiti diversamente? Sono tutti uguali, serve per avere una sufficiente ripetibilità e anche velocità di funzionamento del test. 11 Viola/Di Giacinti 33 Bionanotecnologie (Ciardelli) 12/05/2022 Esempio applicativo: i-insulin In questa parte della lezione verrà trattato un dispositivo, un MEMS terapeutico chiamato iinsulin. Si tratta di un sistema intelligente per il rilascio di insulina per curare il diabete, che è una malattia cronica con molte complicazioni. Ci sono oltre 425 milioni di persone affette da diabete nel mondo. Per il diabete tipo uno, anche detto giovanile, il quale può essere scoperto anche tardi, c’è bisogno di una terapia di insulina per tutta la vita. A volte è usato anche in caso di diabeti di tipo 2 (non-insulino-dipendenti) se la resistenza all’insulina è combinata con ridotta produzione della stessa da parte delle isole di Langerhans. In caso di diabete vi è un frequente monitoraggio dei livelli di glucosio e quindi conseguentemente iniezioni sub cutanee o infusioni. Esistono anche dei sistemi programmabili per il rilascio di insulina, che deve essere comunque sempre regolato in base alle misure di glucosio nel sangue. Sarebbe molto utile sviluppare un sistema di risposta al glucosio che accoppi il monitoraggio della glicemia con il rilascio di insulina, il tutto evitando il coinvolgimento del paziente. Questo dispositivo dovrebbe rilasciare insulina in risposta ad alte concentrazioni di glucosio, regolandone i livelli entro determinati range, con un rischio ridotto di ipoglicemia. Questo dispositivo è stato sviluppato dall’Università del North Carolina, ed è chiamato Smart Insuline Patch. Si tratta di un patch, un cerotto a microaghi che contiene al suo interno, nella parte superiore, cellule beta pancreatiche, cioè quelle cellule in grado di rilasciare insulina. Gli aghi dovrebbero perforare la pelle, fare la misura del glucosio, mandare il segnale alle isole del Langerhans che devono quindi rilasciare insulina dalle cellule beta. Quello rappresentato in figura a destra è lo schema iniziale, così come fu pensato inizialmente dai ricercatori. Dopodiché c’è stato un improvement, in quanto il dispositivo come era stato pensato in un primo momento non era funzionante. Inizialmente c’erano delle capsule di cellule beta pancreatiche incapsulate in un gel reticolato con mezzo di coltura. Il gel era acido ialuronico. In caso di normale glicemia, le cellule avrebbero dovuto produrre un basso quantitativo di insulina (nel disegno l’insulina è rappresentata dalle stelline). In caso di innalzamento del livello di glucosio, invece, questo doveva migrare attraverso gli aghi nella zona del patch dove erano contenute le cellule e queste, in risposta, avrebbero dovuto produrre un maggiore quantitativo di insulina. Succedeva però che il segnale relativo all’aumento della concentrazione di glucosio diffondeva molto lentamente e quindi le cellule non erano in grado di rispondere efficacemente con un rilascio di insulina sufficiente nei tempi richiesti. Si aveva pertanto bisogno che il segnale venisse in qualche modo amplificato. I ricercatori che hanno sviluppato questo sistema hanno poi sviluppato un sistema che all’interno del lago amplificasse il segnale relativo alla variazione della concentrazione di glucosio. Nell’ago era contenuto alfa-amilosio, quindi un componente dell’amido, che è un polimero del glucosio. Si aveva poi il sistema di amplificazione, costituito da quelle che in 1 Viola/Di Giacinti 33 Bionanotecnologie (Ciardelli) 12/05/2022 figura sono rappresentate come sferette azzurre, le GSA (Glucose Signal Amplifiers). Esse contengono i tre seguenti enzimi: • Glucosio ossidasi: converte il glucosio in acido gluconico in presenza di ossigeno (si veda la reazione redox vista in precedenza per misurare il glucosio con i biosensori); • Alfa-amilasi: idrolizza l’alfa amilosio in disaccaridi e trisaccaridi. Si trova anche nella saliva, dove comincia la digestione dell’amido. Rompe l’amido in pezzettini piccoli da 2-3 molecole di glucosio; • Glucoamilasi: finisce il lavoro, finisce di tagliare questi legami e produce glucosio libero; Nel sistema di amplificazione, il glucosio entra all’interno dell’amplificatore dove trova la glucosio ossidasi che lo ossida convertendolo in acido gluconico consumando ossigeno. Questo consumo di ossigeno provoca, per motivi che si analizzeranno in seguito, l’apertura del gel che incapsulava i tre enzimi. Vengono rilasciati, oltre la glucosio ossidasi, anche l’alfa amilasi e la glucoamilasi. Questi due enzimi vanno a degradare l’amido che era stato messo nell’ago al di fuori delle sferette di gel, producendo quindi un quantitativo molto alto di glucosio, sufficiente per provocare la produzione di insulina aumentata da parte delle cellule beta contenute nella parte superiore del patch. La responsabile dell’apertura del gel è la reazione di ossidazione del glucosio, che avviene consumando ossigeno per produrre acido gluconico e acqua ossigenata. La riduzione dell’ossigeno è la causa dell’apertura del gel. Il gel è fatto da acido ialuronico funzionalizzato per avere gruppi di nitroimidazolo pendenti (in viola in figura), che è idrofobico, a differenza dell’acido ialuronico che è invece una molecola idrofilica (è un componente della matrice extracellulare). Quando lo si mette in un ambiente acquoso, questo polimero si organizza in micelle: mette fuori l’acido ialuronico e all’interno dispone il nitroimidazolo, in quanto è idrofobico. Si susseguono le seguenti azioni: arriva il glucosio, entra dentro, l’enzima lo ossida, consuma ossigeno, il consumo di ossigeno trasforma il gruppo NO2 del nitroimidazolo in gruppo NH2 (si passa da nitroimidazolo ad amminoimidazolo). Le regioni interne idrofobiche diventano quindi idrofiliche e le micelle si rompono, rilasciando all’esterno il loro contenuto. Nell’immagine in alto a destra si nota che, come esempio, avevano inserito insulina all’interno. Si trattava infatti di un sistema intelligente di rilascio di insulina che si apriva all’arrivo del glucosio. Nell’amplificatore invece si mettono, all’interno delle strutture, due enzimi che, rilasciati, aumentano il segnale di glucosio e l’insulina viene rilasciata in seguito dalle cellule. 2 Viola/Di Giacinti 33 Bionanotecnologie (Ciardelli) 12/05/2022 Nella figura a destra si vede che le cellule beta sono state incapsulate in microgel di alginato contenenti peptide RGD e collagene, in modo che avessero una matrice, un ambiente piacevole per le cellule. I nuclei delle cellule in figura sono visibili in blu, mentre in verde si ha l’insulina. È stato fatto un saggio Live-Dead (figura in alto a destra). Si vedono in verde le cellule vive a tre tempi diversi (in particolare dopo 1,2 e 3 giorni). Il primo giorno ce ne sono tante vive, il secondo giorno cominciano a comparire delle macchie rosse e dopo tre giorni scarseggiano. Il patch è stato fatto con la tecnica del micromolding e ha dimensione di 10 mm2. Gli aghi sono fatti a piramide, la loro base è di 400 micrometri, l’altezza di 800 micrometri e la punta di 5 micrometri. Il patch è in silicone. A destra si vedono i dati in uscita da una simulazione ex vivo in cui è stato creato un sistema microfluidico. È stato fatto passare glucosio come se si simulasse l’ambiente che si avrebbe quando l’ago buca la pelle. Nell’immagine in basso a destra, si vede il sistema contenente le cellule. Si va quindi a misurare in uscita l’insulina prodotta al variare dell’alimentazione di glucosio: • Il primo esperimento è stato fatto con un tampone di Krebs-Ringer che serve in coltura cellulare, quindi senza glucosio. Si nota che la produzione di insulina rimane molto bassa (in nero nel grafico in alto a destra); • Dandogli invece un valore normo-glicemico (100 mg/dL) comincia a produrre un po’ di insulina. Si nota dal grafico a cinque giorni una produzione piuttosto bassa di insulina e costante, questo perché appunto si è a valori normo-glicemici (in blu nel grafico). • Se invece si sale a 400 mg/dL, quindi nel caso di una glicemia molto alta, che però potenzialmente non può esserci, si vede che la produzione di insulina aumenta fino a continuare per 5 giorni (in verde). 1. How Does a DNA Microarray Work? https://www.youtube.com/watch?v=pWk_zBpKt_w 2. Microarray Method for Genetic Testing https://www.youtube.com/watch?v=AhnTT6-Jgcg 3 Viola/Di Giacinti 33 Bionanotecnologie (Ciardelli) 12/05/2022 NANOSTRUTTURE DI CARBONIO Si ha un foglio di spessore monoatomico di carbonio grafitico (grafene) che si può tagliare e ripiegare in vario modo. Se questi fogli vengono ritagliati e ripiegati per formare una sfera si formano i fullereni (1), se vengono ripiegati a cilindro si ricavano nanotubi di carbonio (2) e, infine, se vengono impilati, danno origine a nanoparticelle di grafene (3), piccolissimi, sottili e planari fogli di carbonio grafitico monomolecolare. Storia delle nanostrutture di carbonio Nel 1985 Kroto e altri trovarono evidenza del C60 (cioè il fullerene con 60 atomi di carbonio) in un’analisi di spettroscopia di massa di campioni di carbonio evaporati. Qualche anno dopo, nell’ambito dello studio dei fullereni furono scoperti i nanotubi di carbonio a parete multipla. Fu un incidente nella ricerca dei fullereni ma in realtà si scoprì che essi avevano proprietà di conducibilità elettrica e meccaniche molto interessanti. Nei primi anni 90 si passò quindi alla sintesi di nanotubi di carbonio anche a singola parete e nel 1995 furono usati come emettitori di campo. Negli anni seguenti fu dimostrato il primo transistor a nanotubi di carbonio, vennero integrati nei circuiti di logica ne emerse l’intrinseca superconduttività etc. Solo più tardi, in particolare nel 2004, fu scoperto il grafene. I fullereni Il Buckminsterfullerene fu il primo fullerene ad essere scoperto. Si tratta di una molecola a 60 atomi di carbonio, chiamata così per la somiglianza alla cupola geodetica dell’architetto Richard Buckminster Fuller. Il C60 è costituito da un icosaedro troncato (ci sono sia esagoni che pentagoni nelle facce come nei palloni da calcio). Poi furono scoperti anche il C70, il C80 e altri fullereni a diverso numero di atomi di carbonio. Nei reattori sottovuoto in cui si faceva il fullerene e si mettevano due elettrodi di grafite, in particolare un catodo di grafite pura e una grafite impaccata in ossido di metallo usata come anodo, questi venivano collegati ad un generatore e grazie all’imposizione di un’alta differenza di potenziale si generava una scarica elettrica, la quale decomponeva la grafite dando vita ai fullereni. I fullereni sono usati in sintesi organica in quanto donatori di elettroni, possono cioè portar via i radicali perché ha gli elettroni poco identificati nei legami e perciò interagiscono facilmente con altri, ma hanno anche applicazioni come materiali di rinforzo, ad esempio nelle matrici polimeriche, per migliorarne le proprietà meccaniche. Furono anche proposte le celle a combustibile degli hard disk. Al MIT è stata messa appunto una tecnologia di massa per la produzione in massa di fullereni. I nanotubi di carbonio I nanotubi di carbonio sono filamenti sottilissimi, di dimensioni nanometriche. Dai reattori escono nanotubi organizzati in placchette, che poi si possono disperdere opportunamente. Sono stati 4 Viola/Di Giacinti 33 Bionanotecnologie (Ciardelli) 12/05/2022 prodotti per la prima volta in un reattore simile a quello per fullereni a cui erano state apportate alcune modifiche. Si tratta di una fibra molto resistente, e molto promettente per sostituire il silicio, essendo un semiconduttore. Si può immaginare un nanotubo di carbonio come un foglio di grafite arrotolato intorno ad un cilindro, con applicati alle due estremità due emisferi di fullerene. Quello che successe nei reattori probabilmente è che il fullerene si deformò via via e si allungò. In genere si effettuano dei processi ossidativi per rimuovere le calotte, per avere cioè dei nanotubi aperti, il carbonio in queste zone è più reattivo quindi si adoperano reazioni acide o basiche per staccare le calotte dalla struttura centrale. I primi erano a parete multipla, costituiti da più nanotubi concentrici. Successivamente furono scoperti quelli a parete singola. Quelli a parete singola hanno lunghezze di diversi mm e diametri di circa 1-1.5 nanometri (sono pertanto assimilabili a strutture monodimensionali). Geometria dei nanotubi di carbonio A seconda di come sono disposti gli atomi di carbonio nel nanotubo, si possono avere diametri diversi e struttura del reticolo diversa. Si hanno varie possibilità: • nanotubi a poltrona (armchair); • nanotubi con disposizione chirale, in cui l’unità ripetente si avvolge diagonalmente lungo il nanotubo; • nanotubi a zig-zag, dove gli esagoni sono disposti perpendicolari alla lunghezza (quindi paralleli al diametro). I primi sono metallici, hanno un’alta conduzione. Quelli chirali sono semiconduttori per 2/3 e per 1/3 metallici e la stessa cosa vale per quelli a zig-zag. Sono invece tutti molto simili a livello di proprietà meccaniche. L’orientamento può essere descritto dal vettore chirale, che descrive la direzione di ripiegamento. Se si pone un sistema di riferimento nel nanotubo (ad esempio in un punto del reticolo) e si congiunge con due vettori quel punto con altri due punti più distanti del reticolo (vettori a1 e a2), la loro risultante definirà una direzione. Il vettore chirale (c) sarà una combinazione lineare di questi due vettori di reticolo: c = n1*a1 + n2*a2, dove a1 e a2 sono i vettori del reticolo e n1 e n2 sono due numeri interi. I nanotubi n-0, ovvero dove n1 è n e n2 è 0, sono classificati come zig-zag. È come se il vettore chirale avesse una sola componente, in quanto una delle due è pari a 0. Se invece n1 e n2 sono uguali, il vettore va lungo la diagonale e li classifico come armchair. Infine, tutti gli altri in cui n1 e n2 sono diversi tra loro e diversi da 0, hanno disposizione chirale. 5 Viola/Di Giacinti 33 Bionanotecnologie (Ciardelli) 12/05/2022 Un nanotubo in cui la combinazione di 2n1+n2 = 3q (con q un numero intero), sarà un nanotubo a struttura metallica. Se si fa l’esempio con gli armchair, che sono per l’appunto metallici, il ragionamento torna. In essi n1=n2, pertanto 2n1+n2 = 3n2. Nei zig-zag invece, i quali hanno n2=0: • Se n1=1, 2n1=2 (non è multiplo di 3); • Se n1=2, 2n1=4 (non è multiplo di 3); • Se n1=3, 2n1=6 (multiplo di 3) È stato infatti detto che i nanotubi con orientamento zig-zag sono per 2/3 semiconduttori e per 1/3 soltanto metallici. Ogni 3 numeri se ne ha sempre uno che è multiplo di 3. Per quanto riguarda le proprietà meccaniche, i nanotubi di carbonio sono molto resistenti, nonostante siano 50000 volte più sottili di un capello, circa 80 volte più dell’acciaio, con un modulo di Young compreso tra 1-6 TPa. Resistono meno a compressione che a trazione ma sono molto flessibili. Ci hanno fatto anche dei cantilever. Tecniche di produzione Le tecniche per produrre i nanotubi sono 4: arco elettrico, vaporizzazione laser, forno solare, deposizione chimica per evaporazione (CVD). Le prime tre tecniche si basano sulla vaporizzazione di un gruppo di grafite ad altissima temperatura, l’ultima invece sulla decomposizione di un precursore gassoso come, ad esempio, il metano. In generale si ha bisogno di una sorgente di carbonio e di un catalizzatore metallico. • Arco elettrico: tecnica che assomiglia molto alla fornace per fare fullereni. Camera a vuoto, anodo e catodo di grafite. Si riempie la camera di gas inerte, si fa il vuoto controllato, si applica una differenza di potenziale di circa 20 V tra gli elettrodi che vengono avvicinati fino a che non si ha una scarica elettrica di 50-200 A. Le temperature di 4000 gradi fanno sublimare il carbonio che si deposita sulle pareti del reattore, dove si forma una sorta di ragnatele che contiene varie forme diverse di carbonio (la resa in nanotubi è circa il 30%). Con opportuni catalizzatori si possono ottenere sia a parete singola che doppia. I nanotubi vengono lunghi circa 50 micrometri, non di più. • Vaporizzazione laser: è una variazione del metodo dell’arco elettrico. In una fornace a 1200 gradi si colpisce la grafite con un raggio laser che provoca la sublimazione, vaporizzazione e deposizione del carbonio su un collettore di rame. Si producono molti più nanotubi da questa tecnica (resa al 70-90%). • CVD: in questa tecnica si prende un gas contenete carbonio (metano, ossido di carbonio...) e si usa un catalizzatore metallico finemente disperso (Co, Ni…). È un metodo continuo, il che è un vantaggio dal punto di vista industriale. Le rese sono variabili dal 20 al 100%, i nanotubi sono più lunghi ma spesso sono a multipla parete e con molti difetti. 6 Viola/Di Giacinti 33 Bionanotecnologie (Ciardelli) 12/05/2022 Nell’immagine sottostante si nota che si possono fare anche depositi di nanotubi su strutture realizzate per soft litography. Come si può controllare il bilancio tra nanotubi a singola e multipla parete? Il carbonio allo stato vapore (ad esempio per decomposizione dell’idrocarburo) si assorbe sulla superficie libera del catalizzatore, che è più freddo, e comincia a diffondere all’interno (seve per alimentare la crescita del tubo). Questo può avvenire attraverso due diverse modalità: la Tip growth(2) o la Extrusion on root growth (1). Può succedere che in un caso il carbonio diffonde e poi comincia la crescita dei nanotubi (Extrusion on root growth). Qui il supporto metallico rimane in fondo ai nanotubi. Altrimenti ci può essere la modalità Tip growth, in cui il carbonio diffonde più al disotto del catalizzatore e comincia a spingerlo in alto, provocando la crescita del nanotubo con la particella di catalizzatore metallico in cima. Ciò che in questi processi di crescita determina la formazione di nanotubi a multipla o singola parete, è la tappa cineticamente determinante del processo di crescita. Se lo stadio lento prevede diffusione del carbonio nella particella si vedono crescere dei nanotubi a parete multipla. Se invece lo stadio lento è l’alimentazione del carbonio allora questo diffonde uniformemente e si hanno nanotubi a singola parete. 7 Romano/De Simmeo 34 Bionanotecnologie (Ciardelli) 13/05/2022 Riprendiamo dalle proprietà elettriche dei nanotubi: una delle caratteristiche di interesse è la loro capacità di conduzione che possono essere sia di tipologia metallica che semiconduttori (a seconda della struttura del reticolo cristallino). Questo è molto interessante perché sono degli oggetti miniaturizzati che, per le loro proprietà elettriche, potrebbero sostituire molti dei materiali utilizzati in elettronica che sono prevalentemente a base silicio (slide 10). Abbiamo visto, inoltre, la relazione empirica tra il reticolo cristallino del nanotubo e le sue proprietà elettriche (slide 11). Riprendiamo le proprietà elettriche di questi sistemi, cioè del grafene e dei nanotubi, rispettivamente estesi in una e due direzioni. Possiamo immaginare il grafene come un piano in cui ci sono gli atomi di C impegnati nei legami con altri due atomi di C, che quindi condividono gli elettroni con gli altri atomi di C. Gli elettroni non ibridizzati (𝜋, sp2) possono essere condivisi e si troveranno sopra o sotto il piano del foglio di grafene → quando chiudiamo il piano per formare il nanotubo le cose diventano ancora più interessanti poiché confiniamo gli elettroni nello spazio interno del nanotubo, che è uno spazio completamente vuoto: l’elettrone può quindi viaggiare senza attrito all’interno del nanotubo. Il cammino libero dell’elettrone (l) è molto maggiore della lunghezza del nanotubo (L) e quindi potenzialmente dei due estremi collegati ad una differenza di potenziale. Si ha quindi un trasporto di corrente chiamato trasporto balistico, per cui l’intensità della corrente è solo dipendente dalla differenza di potenziale (a differenza dei circuiti normali, dove la conduzione avviene nei metalli, la lunghezza del circuito è molto più grande del cammino libero della carica per cui l’elettrone per muoversi deve districarsi tra gli altri atomi del reticolo). La caratteristica di semiconduzione o conduzione dipende dalla differenza di energia che c’è tra l’ultimo stato popolato (orbitali di valenza) e gli orbitali di conduzione, come nei metalli; questa differenza di energia è legata al livello fermi e mentre nei semiconduttori c’è una differenza di energia tra gli ultimi orbitali di conduzione e i primi di valenza, questo non succede nei nanotubi conduttori (questo è dovuto alla geometria del nanotubo e alla struttura del reticolo cristallino). Abbiamo inoltre visto i metodi di preparazione dei nanotubi, riprendiamo dalla purificazione dei nanotubi. In tutti i metodi che utilizziamo non produciamo solo nanotubi ma anche altre forme di carbonio (ad esempio il fullerene, forme di carbonio amorfo come il carbonio turbostrato utilizzato per il rivestimento di protesi valvole cardiache al fine di renderle anti trombogeniche ecc…). Le impurezze non carboniose e le particelle metalliche derivano dal fatto che durante il processo usiamo dei catalizzatori, cioè dei metalli (ad esempio nel CVD, unico metodo in cui uso dei precursori gassosi invece della grafite come sorgente di carbonio, è necessario eliminare i granuli di supporto). 1 Romano/De Simmeo 34 Bionanotecnologie (Ciardelli) 13/05/2022 Questo generalmente comporta una perdita di più del 90% dei nanotubi prodotti e a un loro danneggiamento (bisogna trovare il giusto compromesso tra resa e purezza del prodotto stesso). I metodi che si utilizzano per eliminare le particelle di catalizzatore sono: • Metodi chimici: ossidazione e trattamento con acidi. Con l’ossidazione o la riduzione selettiva si sfrutta la maggiore reattività del legame C-C nelle impurezze rispetto al legame C-C nel nanotubo. Tra le reazioni più comuni abbiamo: o Ossidazione con permanganato: in questo caso si usa il permanganato di potassio in soluzione acida, per cui si forma CO2, biossido di manganese e perossido di C che non è nei nanotubi, perché i nanotubi sono più resistenti a questo trattamento o Ossidazione all’aria: con l’ossigeno il carbonio diventa CO2 o CO a seconda dell’efficienza dell’ossidazione o Riduzione con idrogeno ad alte temperature (900°C per 4,5 h) Sia l’ossidazione che la riduzione sfruttano la maggiore reattività chimica del carbonio amorfo e dei fullereni rispetto al carbonio dei nanotubi. • Metodi fisici: sublimazione sottovuoto ad alta temperatura. I metodi fisici più comuni sono la filtrazione, la centrifugazione e la microfiltrazione, quindi dei metodi di separazione che si basano sulle dimensioni delle particelle da isolare, non c’è un’aggressione chimica del substrato. Il campione finale puro è il risultato dell’eliminazione di gran parte del materiale che avevamo all’inizio. Per eliminare le particelle del supporto, poiché nel CVD si lavora su un catalizzatore supportato, esso deve essere separato dai nanotubi. Essendo in genere a base Silicio, si può utilizzare acido nitrico (HNO3) o acido fluoridrico (HF) che dissolvono il supporto (HF forma 6F4 che è volatile e pertanto si disperde nell’aria); successivamente si fa una filtrazione e una essiccazione per recuperare il nanotubo. Grafene Il grafene, sebbene dal punto di vista concettuale e geometriche è la forma più semplice rispetto al fullerene e ai nanotubi, è l’ultimo scoperto tra i tre. Il grafene è un monostrato di atomi di carbonio, organizzati in anelli di “benzene” (tra virgolette poiché nel benzene il C è legato a 2 C e 1 idrogeno, nel grafene invece il C è legato a 3C). Il grafene si ottiene per esfoliazione chimica, crescita epitassiale (CVD), epitassia su superfici cataliche (Ni, Pt) e clivaggio meccanico. → I metodi per realizzare il grafene sono o di tipo meccanico (si effettuano dei tagli sulla grafite), oppure si può fare una esfoliazione chimica sulla grafite, una crescita epitassiale da 2 Romano/De Simmeo 34 Bionanotecnologie (Ciardelli) 13/05/2022 CVD (tipo quella dei nanotubi) e, eventualmente, anche una crescita su catalizzatori (questo non molto fatto in realtà…). Se guardiamo attentamente al microscopio elettronico il grafene, esso non è piatto come siamo abituati ad immaginarlo ma forma delle dune dette “ripples”. Il grafene è molto interessante per le sue proprietà di conducibilità poiché vi è, come detto, un trasporto balistico e una resistenza quantizzata (“Effetto Quantum Hall”). Per quanto detto, il grafene è molto più conduttivo del silicio: è possibile quindi realizzare elettronica a base di carbonio con il grafene, ad alto rendimento e bassa potenza (per il discorso fatto prima) Utilizzo del grafene in campo biomedicale Il grafene si presta molto bene a modifiche superficiali, anche di tipo chimico, quindi anche ad operare strategie di targeting o anche strategie di risposta allo stimolo. Il grafene viene quindi principalmente applicato nel: - Rilascio di farmaco - Terapia oncologica - Diagnostica combinata alla terapia dei tumori (chemioterapia guidata dalla RM→ si può fare terapia genica, fototerapia, radioterapia, ecc. ci sono diverse applicazioni in cui il grafene può trovare un possibile utilizzo.) Esempio applicativo: è stato sviluppato un sistema di nanoparticelle di ossido di grafene. Per poterlo utilizzare in ambito biomedicale, infatti, il grafene ha bisogno di essere reso più solubile in acqua e quindi dobbiamo ossidarlo. In questo esempio il grafene, in particolare, oltre ad essere ossidato viene anche rivestito con il PEG e viene utilizzato per il rilascio combinato di due farmaci chemioterapici. Nella chemioterapia, infatti, sappiamo che l’utilizzo di due farmaci molto spesso è molto più efficace del singolo farmaco per gli effetti sinergici che si creano tra i due farmaci. Il grafene, come si vede dalla slide dell’esempio, è un singolo strato bi-dimensionale costituito da carbonio ibridizzato sp2; inoltre, esso è un eccellente candidato per ospitare farmaci poiché ha un’altissima area superficiale (è un piano atomico). In questo scenario sono molto interessanti i derivati del grafene, in particolare l’ossido di grafene. L’ossido di grafene (GO) è un grafene trattato chimicamente per presentare sulla superficie gruppi ossidrili (OH), carbonilici (C=0), carbossilici (COOH) ed epossidici. Questi gruppi funzionali sono il risultato dell’ossidazione effettuata con metodi simili a quelli visti prima per la funzionalizzazione, per esempio il permanganato. Questi gruppi funzionali si troveranno sempre sulla superficie (perché abbiamo un materiale bidimensionale) e rendono il grafene solubile in acqua (il grafene da solo è inerte e insolubile in ambiente acquoso), biocompatibile e anche multifunzionale (le funzionalità possono essere sfruttare per legare farmaci o molecole che guidino le nanoparticelle verso uno specifico bersaglio). Si possono funzionalizzare anche i nanotubi per avere dei gruppi carbossilici da utilizzare poi per vari scopi. 3 Romano/De Simmeo 34 Bionanotecnologie (Ciardelli) 13/05/2022 Nello specifico, in questo esempio vengono sfruttati i gruppi carbossilici del grafene ossidato (GO); per prima cosa il GO viene legato con un PEG, polietilenglicol, (a 4 braccia, con dei gruppi NH2 all’estremità). Si fanno reagire gruppi carbossilici con gruppi amminici e il PEG si legherà chimicamente all’ossido di grafene impegnando uno o al massimo due gruppi amminici per molecola (per come è fatta la molecola). In questo modo passo da GO a pGO (PEG grafen oxide). Si considera il primo farmaco antitumorale, il cisplatino (è legato a due gruppi amminici e due clori) viene ossidato con acqua ossigenata (da platino4 passo a paltino6 ), viene fatto reagire con anidride succinica ( ) → La molecola così ottenuta viene indicata con “Pt” nella slide in alto e presenta un gruppo OH che si lega ai gruppi amminici rimasti liberi dal PEG (sul pGO). Attraverso un legame ammidico legherò il cisplatino al PEG che a sua volta è legato al GO, quindi ottengo il pGO-Pt. In questo modo si lega covalentemente al GO un farmaco chemioterapico, il cispaltino. A questo punto aggiungo il secondo farmaco, la doxorubicina (DOX), che è un farmaco idrofobico. Questa viene inglobata nell’ossido di grafene grazie alla presenza dei gruppi aromatici (interagisce per interazione idrofobica con il grafene). Il prodotto finale è il pGO-Pt-DOX che contiene quindi i due farmaci chemioterapici: cisplatino e doxorubicina. Le particelle vengono successivamente caratterizzate per la loro dimensione (la dimensione della molecola non cambia di molto tra una reazione e l’altra: si raggiunge una dimensione finale di circa 161 nm) e per il potenziale z (negativo per ogni passaggio ma il valore in termini di valore assoluto diminuisce un pò, le particelle si respingono e non si agglomerano). Una volta preparate le nanoparticelle, queste vengono testate in termini di attività biologica: verifico che uccidano le cellule tumorali. Il primo esperimento che viene fatto è con due linee cellulari (CAL-27 e MCF-7) che vengono mantenute in coltura osservandone l’attività a 24h e a 48h trattandole con dose crescenti dei vari principi attivi. Il confronto avviene tra il pGO, il pGO-Pt, il pGO-DOX, il pGO-Pt-DOX e il Pt-DOX. Vediamo che il pGO non ha alcun effetto sulle cellule tumorali, la loro attività cellulare rimane costante in funzione del tempo e della dose. Invece se trattate con il Pt-DOX, il doppio chemioterapico, (terapia classica) vi è un forte calo della vitalità cellulare proporzionale alla dose sia per le 24h che per le 48h. Effetti molto minori si ottengono sia con pGO-Pt che con pGO-DOX. Combinando insieme i due farmaci con il grafene ossidato (pGO-Pt-DOX), l’effetto è molto vicino all’effetto dei due farmaci combinati (Pt-DOX) soprattutto a 48h. Da questo grafico valuteremmo come inutile l’utilizzo di cisplatino e doxorubicina insieme al grafene ossidato, poiché sembra che la terapia Pt-DOX abbia più effetto! Tuttavia, è importante considerare che in questo caso ci troviamo di fronte ad una cultura cellulare, dove l’effetto di targeting legato alla nanomedicina è un targeting passivo, poiché non ho legato delle molecole di targeting ma sfrutto solo il fatto che ho delle dimensioni nanometriche del carrier. Il targeting passivo sfrutta il fatto che le particelle devono circolare e poi man mano si accumulano nel tumore sfruttando la vascolarizzazione fenestrata. Per capire se ci sono dei vantaggi si deve passare agli esperimenti in vivo, ovvero su animale. La sperimentazione è stata condotta in vivo su un topo. Si è preso il topo con il tumore umanizzato e sono state iniettate le nanoparticelle in coda. Quello che ci si aspetta è che le particelle cominciano a circolare ed a entrare dentro le cellule tumorali per endocitosi. L’ambiente dell’endosoma riuscirà a rompere il legame che tiene legati i due farmaci alla nanoparticella. In questo modo i due farmaci svolgeranno il loro lavoro→ 4 Romano/De Simmeo 34 Bionanotecnologie (Ciardelli) 13/05/2022 a questo punto il cisplatino tende a danneggiare il DNA delle cellule tumorali, mentre il DOX tende ad impedire la replicazione del DNA delle stesse. Il DOX si intercala con gli anelli aromatici tra le basi aromatiche del DNA e ostacola il processo di replicazione. Nel grafico a destra, rappresentativo dell’esempio in vivo, è stata misurata la crescita del tumore nel topo (volume del tumore) in funzione dei giorni. Se il topo viene trattato con soluzione salina (PBS) ovviamente la crescita del tumore è esponenziale, così come nel caso di pGO, non ha nessun effetto sul tumore. Nel caso della terapia farmacologica, ovvero quando si inserisce il farmaco da solo o legato chimicamente alle nanoparticelle di grafene, la crescita del tumore è molto più lenta e rallenta ancora di più se i due farmaci vengono iniettati utilizzando pGO-PtDOX. Questa differenza di effetto del pGO-PtDOX rispetto ai farmaci liberi (Pt/DOX) indica che effettivamente i farmaci vengono portati all’interno delle cellule tumorali riescono in modo efficace ad inibirne la crescita rispetto alla terapia con il farmaco tradizionale. Un’altra cosa da fare sono dei test con cellule sane, per esempio dei fibroblasti. Si è osservato che la tossicità dei chemioterapici è minore quando si incapsulano nel grafene. 5