Apple: RAM più veloce per le funzioni AI degli iPhone

Apple: RAM più veloce per le funzioni AI degli iPhone

Apple ha chiesto a Samsung di sviluppare una nuova metodologia per il packaging della DRAM a basso consumo (LPDDR) utilizzata negli iPhone.
Apple: RAM più veloce per le funzioni AI degli iPhone
Apple ha chiesto a Samsung di sviluppare una nuova metodologia per il packaging della DRAM a basso consumo (LPDDR) utilizzata negli iPhone.

Con l’intendo di ampliare la larghezza di banda per supportare al meglio le attività di Apple Intelligence, su esplicita richiesta di Apple, attualmente sarebbe in sviluppo da parte di Samsung una nuova metodologia per il packaging della DRAM a basso consumo (LPDDR) utilizzata negli iPhone.

Apple: nuova metodologia per il packaging della DRAM a basso consumo per iPhone

A riferire lo scenario è stata la testata coreana The Elec, secondo cui Samsung sta cercando di passare dal metodo tradizionale package-on-package (PoP) a un discrete package, un cambiamento che il colosso di Cupertino avrebbe pianificato di introdurre a partire dal 2026, quindi con gli iPhone 18.

Attualmente, il packaging PoP impila la DRAM direttamente sul chip di sistema (SoC). Questo approccio, sfruttato da Apple per la prima volta a partire da iPhone 4 nel 2010, è ideale per i device mobile in quanto riduce le dimensioni complessive dei componenti, ma è meno adatto per supportare funzionalità avanzate di intelligenza artificiale.

Il passaggio al discrete package consentirebbe di confezionare la DRAM in maniera separata dal SoC, aumentando il numero di pin I/O e migliorando la larghezza di banda della memoria. In questo modo vi sarebbero anche netti vantaggi per quel che concerne la dissipazione del calore, visto che una superficie di memoria più ampia aiuta a disperderlo meglio.

Samsung starebbe altresì valutando l’applicazione della tecnologia LPDDR6-PIM (processor in memory) per la DRAM degli iPhone, in grado di offrire velocità di trasferimento dati e larghezza di banda due o tre volte superiori rispetto alla LPDDR5X, il che risulta essere particolarmente adatto per l’AI on-device.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
6 dic 2024
Link copiato negli appunti