Il documento informativo “I sensori intelligenti che abilitano l’Intelligent Internet of Things” discute le tendenze principali nello sviluppo dei sensori e come le tecnologie di rilevamento come il radar, il LiDAR e l'acquisizione delle immagini a tempo di volo forniscano ancora più informazioni consentendo ai sistemi di percepire gli oggetti nello spazio 3D. Questo blog ne è un’estensione e si concentra su come utilizzare l’approccio dell’apertura dei pixel per estrarre informazioni sulla profondità da un sensore di immagine CMOS e creare normali immagini 2D, nonché sui circuiti dei pixel e su come superare gli ostacoli di un sistema di rilevamento di immagini 3D.
Ad esempio, una telecamera 3D deve registrare due immagini contemporaneamente e visualizzare due immagini visibili all’occhio destro e all’occhio sinistro dell’uomo per la percezione 3D. Questa percezione può essere considerata un approccio passivo. D’altra parte, la modalità attiva può essere utilizzata con la sorgente luminosa per percepire la profondità dell’oggetto. In base alle proprietà della luce riflessa, è possibile creare un’immagine tridimensionale attraverso calcoli di post-elaborazione. In particolare il tempo di volo (TOF) è una stima del tempo di viaggio della luce parallela che viene emessa da una sorgente luminosa, raggiunge un oggetto, viene riflessa da un oggetto e raggiunge un sensore. La profondità degli oggetti può essere dedotta facilmente dai diversi tempi di spostamento registrati nei pixel.
I sensori di immagine bidimensionali e tridimensionali sono combinati sulla base degli stessi diodi luminosi. Nelle modalità bidimensionale e tridimensionale, il circuito di campionamento duplex correlato (CDS) e il convertitore tempo-digitale (TDC) sono adottati o modificati. I circuiti di lettura utilizzano la lettura lineare e parallela rispettivamente nelle modalità 2D e 3D. Di conseguenza, per ottenere una lettura parallela si utilizza un TDC multicanale.
Sensore di immagine integrato 2D/3D
Per integrare efficacemente i sensori di immagine 2D e 3D, il fotodiodo P-diffusion_N-well_ P-substrate è adottato e controllato per funzionare in modalità di rilevamento fotografico 2D e 3D. In modalità 2D, sono stati progettati il circuito CDS e il circuito di lettura CDS, nonché un decodificatore di riga, un decodificatore di colonna e un controllore. In modalità 3D, sono stati implementatiamplificatori di senso (SA), la lettura TDC e un TDC. Il SA aumenta un impulso di trigger di un pixel per ridurre il tempo di lettura da un pixel a un TDC. La Figura 1 mostra lo schema a blocchi del sensore di immagine integrato 2D / 3D.