Alfonso Maruccia

Rice University per un microchip davvero micro

L'università statunitense dice di aver trovato il modo di spingere il silicio sino al confine dei 5 nanometri. Attesi annunci anche per i memristori

Roma - La corsa costante alla miniaturizzazione selvaggia di transistor e microchip si arricchisce di due novità, entrambe potenzialmente in grado di donare nuova linfa vitale al moderno mondo tecnologico basato sul silicio. La Rice University promette il raggiungimento dei cinque nanometri entro 5 anni, mentre HP torna a parlare di memristori. Scettici, nel primo caso, giganti del settore quali IBM e Intel.

I transistor a cinque nanometri che l'università texana dice di poter realizzare entro il 2015 - dunque prima della fine del decennio come tempo stimato dai produttori di chip per il raggiungimento del traguardo - sono basati su tecniche di produzione tradizionali e sfruttano l'ossido di silicio come elemento costituente di base.

I ricercatori della Rice annunciano la realizzazione di un chip prototipo da parte della società texana PrivaTran, un prototipo basato sullo studio sull'ossido di silicio e che è in grado di immagazzinare appena 1.000 bit di informazione. Qualora il metodo risultasse scalabile con successo, dicono i ricercatori, si potrebbero raggiungere capacità di storage a stato solido pari a quelle degli attuali hard disk più capienti (2,5-3 Terabyte) entro cinque anni.
Gli scienziati di Rice sono poi coinvolti nella ricerca di HP sui memristori, il "Santo Graal" dell'elettronica che promette di dare un notevole colpo di acceleratore al percorso evolutivo al settore. HP ha recentemente annunciato di essere entrata in partnership con un non meglio specificato produttore di microchip per quella che dovrebbe essere la prima produzione commerciale di una tecnologia informatica a base di memristore.

E se sulle capacità dei memristori il parere dell'industria è concorde, non altrettanto positivo è quello sulla tecnologia a base di ossido di silicio su cui lavorano presso la Rice University. Colossi come Intel e IBM sono scettici sulle possibili applicazioni pratiche di un materiale sin qui noto per avere proprietà isolanti, dicono di averci già lavorato in passato senza aver raggiunto risultati significativi.

Alfonso Maruccia
Notizie collegate
  • TecnologiaLa memoria del futuro: il memristoreL'anello mancante dell'elettronica. Che potrebbe cambiare per sempre il modello stesso di computer come è inteso oggi. Arriverà sul mercato prestissimo, spazzando via DRAM e stato solido
  • TecnologiaIl ritorno del memristoreUna delle scoperte tecnologiche più interessanti di questi anni si fa strada nella applicazioni pratiche. Tempo tre anni e i microchip faranno un salto evolutivo enorme. Almeno questa è la promessa dei ricercatori
  • TecnologiaMicrochip, ibrido è belloProseguono le ricerche per lo sviluppo di circuiti capaci di superare le limitazioni del semplice silicio. La tendenza del momento è la creazione di nuove architetture composte
  • TecnologiaHP: microchip a memristori in tre anniNuovi risultati positivi dagli esperimenti su uno dei contendenti al trono del silicio. I memristori diventano più veloci, e si preparano a dare battaglia ai transistor per i dispositivi elettronici del futuro prossimo venturo
16 Commenti alla Notizia Rice University per un microchip davvero micro
Ordina
  • per non aver citato la non-legge di Moore!
    grazie grazie grazie!

    PS: stai risalendo di bestia nella mia lista di gente da apprezzare! (certo, la strada per Cassandra e' lunga, ma sei avviato bene)
    non+autenticato
  • ma povero Moore che colpa ha se la gente si fissa e lo fa diventare un profeta?A bocca aperta

    scommetto che Moore la buttò lì giusto come osservazioni empirica e poi i soliti ricamatori l'hanno ingigantita
    non+autenticato
  • - Scritto da: collione
    > ma povero Moore che colpa ha se la gente si fissa
    > e lo fa diventare un profeta?
    >A bocca aperta
    >
    > scommetto che Moore la buttò lì giusto come
    > osservazioni empirica e poi i soliti ricamatori
    > l'hanno ingigantita
    ed infatti io mi incaaa...volo con tutti quei cialtroni che si riempiono la bocca con "legge di moore di qui", "legge di moore di la'" (e su PI pullulano gli articolisti di tal fatta), mica con moore (che tra l'altro, era un furbastro mica da ridere, diciamolo)
    non+autenticato
  • - Scritto da: attonito
    > - Scritto da: collione
    > > ma povero Moore che colpa ha se la gente si
    > fissa
    > > e lo fa diventare un profeta?
    > >A bocca aperta
    > >
    > > scommetto che Moore la buttò lì giusto come
    > > osservazioni empirica e poi i soliti ricamatori
    > > l'hanno ingigantita
    > ed infatti io mi incaaa...volo con tutti quei
    > cialtroni che si riempiono la bocca con "legge di
    > moore di qui", "legge di moore di la'" (e su PI
    > pullulano gli articolisti di tal fatta), mica con
    > moore (che tra l'altro, era un furbastro mica da
    > ridere,
    > diciamolo)
    Io se Moore avesse ragione con la sua non-legge, fosse un furbastro o quanto altro non lo so.

    Quello che so e' che il "mio" PC nel 1990 era un Intel 486 con 4Mb di RAM, un processore da qualche decina di MFlops, ed un disco da 300Mb.

    Ora il mio PC e' ancora un Intel, 4Gb di RAM, sputa qualche decina di Gflops, ed ha un disco da 500Gb.

    A me sembra un fattore "1.000" in 20 anni pitti, pitti, ovvero un "raddoppio" ogni due anni su dieci periodi da 2 anni. E 2^10 = 1024.

    Se non e' la legge di Moore, somiglia molto.

    Che poi valga per il futuro ... a noi umani non e' dato saperlo.

    Orfheo.
    -----------------------------------------------------------
    Modificato dall' autore il 01 settembre 2010 17.23
    -----------------------------------------------------------
  • Penso che attonito si inca...zzi perché quella che è semplicemente una stima viene citata come "legge".

    Moore può anche averci preso, ma non è una legge.
    non+autenticato
  • - Scritto da: Domenico
    > Penso che attonito si inca...zzi perché quella
    > che è semplicemente una stima viene citata come
    > "legge".
    >
    > Moore può anche averci preso, ma non è una legge.
    Per quanto ne sappiamo potrebbe essere cosi' oppure potrebbe non esserlo.

    Non abbiamo il "diritto" semantico, forse, di chiamarla "Legge".

    Ma analizzando l'evoluzione "biologica" sul pianeta Terra, si ritrovano in continuazione indicazioni di andamenti "esponenziali".

    Io non sarei sicuro che qualcosa non costringa il nostro Universo ad un aumento esponenziale della complessita'. In questo caso l'unico torto di Moore sarebbe stato di averlo riconosciuto solo per l'evoluzione tecnologica del silicio.

    Qualcosa mi lascia "intuire" che il nostro Universo ha una maledetta "fretta" di diventare piu' "intelligente". E qualche ragione ce l'ha: e' ancora nella sua "adolescenza", con 13 miliardi di anni sulle spalle, ma fra un centinaio di miliardi di anni, sara' un posto morto, buio e desolato.

    Che conti su di noi? Occhiolino

    Orfheo.
    -----------------------------------------------------------
    Modificato dall' autore il 01 settembre 2010 17.56
    -----------------------------------------------------------
  • Si, dobbiamo farlo ri-esplodere prima che si congeli...
    ...
    sennò finisce tutto!

    continuando così secondo te quando arriviamo al "Big Bang 2.0"?
    G%2cG
    339
  • Ps. a me stranizza parecchio questa cosa dell'evoluzione esponenziale, perché, se, a posteriori guardiamo i tempi non possiamo non renderci conto che è così. Però se accettiamo il darwinismo, che semplificando riduce l'evoluzione a caso+selezione naturale, i tempi dovrebbero allungarsi anziché ridursi. Ad un amento della complessità e quindi delle possibilità dovrebbe essere necessario un tempo maggiore per la ricerca di soluzioni migliori, che ne pensi?
    G%2cG
    339
  • - Scritto da: G,G
    > Ps. a me stranizza parecchio questa cosa
    > dell'evoluzione esponenziale, perché, se, a
    > posteriori guardiamo i tempi non possiamo non
    > renderci conto che è così. Però se accettiamo il
    > darwinismo, che semplificando riduce l'evoluzione
    > a caso+selezione naturale, i tempi dovrebbero
    > allungarsi anziché ridursi. Ad un amento della
    > complessità e quindi delle possibilità dovrebbe
    > essere necessario un tempo maggiore per la
    > ricerca di soluzioni migliori, che ne
    > pensi?

    Non ne ho idea. In quattro miliardi di anni, l'evoluzione sulla Terra e' passata da un retrovirus ad RNA (la probabile prima forma di vita) ad un animale multicellulare, con cellule eucariote a DNA multiplo, in grado di fare un numero esponenziale di "stronzate" in un tempo brevissimo, qualche migliaio di anni. Ora in qualche centinaio.

    Nei precendenti 9 miliardi di anni la maggior parte dell'Universo ha passato il tempo a fondere idrogeno ed elio in elementi piu' pesanti, indispensabili per una chimica complessa, impossibile nella nuvola di idrogeno ed elio creata dal Big Bang.

    Se questa non e' crescita "esponenziale" non so cosa possa esserlo.

    Per tornare in tema, la "stima" di Moore e' una "estrapolazione" dell'evoluzione dei chip basati sulla tecnologia del drogaggio dei semiconduttori. E' ovvio che abbia dei limiti e che l'esponenziale prima o poi si "appiattisca". Probabilmente siamo li' li' sul confine, anche se ribadisco che dal 1990 al 2010 il raddoppio "biennale" previsto nel 1975 e' stato grosso modo rispettato.

    Ma l'evoluzione esponenziale della materia verso comportamenti "intelligenti" e' un pattern che dura da troppo tempo ed e' stato troppo stabile, per non essere riconosciuto.

    Che si applichi alle nostre tecnologie, anche se come un esponenziale "segmentato", che si ferma e riparte con nuovi coefficienti, non mi sorprende piu' di tanto. E non si e' applicato solo ai semiconduttori: anche altre tecnologie, come "l'agricoltura" o la "stampa" hanno mostrato lo stesso pattern. Si sone "fermate" e sono ripartite, ogni volta salendo la "china" della complessita'.

    Perche' questo andamento? Al momento non e' dato saperlo. Puo' darsi che sia solo il nostro "desiderio" (il mio, in questo caso) di riconoscere regole dove non c'e' nessuna regola. La religione e' nata cosi', credo. La fisica e' una sua evoluzione che ha riconosciuto la "matematica" come un possibile "linguaggio" universale. E fino ad ora ha funzionato.

    Ma siamo solo "umani" e la "realta'" potrebbe avere in serbo sorprese che non ci piacerebbero Occhiolino

    Orfheo.
  • - Scritto da: G,G
    > Si, dobbiamo farlo ri-esplodere prima che si
    > congeli...
    > ...
    > sennò finisce tutto!
    >
    > continuando così secondo te quando arriviamo al
    > "Big Bang
    > 2.0"?
    In 120 Miliardi di anni sara' una buona approssimazione di uno spazio di Minkowski, ovvero uno spazio quasi vuoto, dove la densita' "media" di materia ed energia sara' molto bassa, ovvero il tensore densita' di energia/momento quasi nullo.

    I buchi neri ci metteranno molto piu' tempo ad "evaporare", un numero con una tonnellata di zeri, qualcosa come 10^120 anni (non sono sicuro sia il numero giusto vado a memoria), specialmente i buchi neri supermassivi. Ma evaporeranno. Non possono fare altro.

    Il risultato finale ... beh ... non e' che abbiamo le idee molto chiare, ma una cosa e' sicura ... non ci piacerebbe.

    Non che questo interessi "direttamente" la nostra specie: in un paio di miliardi di anni (comunque l'homo sapiens sapiens sarebbe estinto da tempo) ci troveremo a risolvere il problema della collisione tra la Via Lattea e la supergalassia di Andromeda, verso la quale stiamo "cadendo".

    Ancora prima, un miliardo di anni, il nucleo del nostro pianeta "invadera'" il mantello, "spegnendo" la magnetosfera e avviando il processo che marteformera' la Terra, dissolvendo atmosfera ed oceani.

    Sempre che un asteroide o un supervulcano non ci spazzi via prima.

    Posto incantevole un pianeta, vero? Occhiolino

    Orfheo.
  • > Quello che so e' che il "mio" PC nel 1990 era un
    > Intel 486 con 4Mb di RAM, un processore da
    > qualche decina di MFlops, ed un disco da
    > 300Mb.
    >
    > Ora il mio PC e' ancora un Intel, 4Gb di RAM,
    > sputa qualche decina di Gflops, ed ha un disco da
    > 500Gb.
    >
    > A me sembra un fattore "1.000" in 20 anni pitti,
    > pitti, ovvero un "raddoppio" ogni due anni su
    > dieci periodi da 2 anni. E 2^10 =
    > 1024.
    >
    > Se non e' la legge di Moore, somiglia molto.
    >

    quello che fai tu e' "aggiustare" la "legge" a POSTERIORI, cioe' avendo in mano dati storici li proietti all'indietro.
    La PREVISIONE di Moore parlava di transistor, (http://it.wikipedia.org/wiki/Legge_di_Moore) e parlava di raddoppio di densita' e prestazioni ogni 18 mesi.

    quidi: 20 anni = 240 mesi = (circa) 13 periodi da 18 mesi l'uno, non 10 periodi da 24. Ora, raddoppiare ogni 18 mesi significa, dopo 13 volte, arrivare a 4096 (arrotondiamo a 4000), mentre raddoppiando ogni volta su base 24 mesi abbiamo 1024 (arrotondiamo a 1000).

    Ora, una "legge" che a fronte di una previsione di 4000 ha una controparte reale di 1000, signifca che canna del 75%: permetti che come legge abbia poco di affidabile?

    [OT]
    cito dal sito di wikipedia: « il corollario è che nel 2008 i chip Pentium II e PowerPC costeranno circa 75 cent" » strano, non li ho visti in vendita...

    Che fai ora che non facevi col 486? internet, word, excel, autocad, posta elettronica etc. stesse cose, solo che prima l'alimenatore era da 150W ora, minimo 750W... 5 volte tanto.... per fare LE STESSE COSE. da qualche parte, qualcosa, deve essere andato dannatamente storto.
    [/OT]
    non+autenticato