No es el post para ello, pero resumiendo mucho, los sensores tienen un rango dinámico mucho menor que el ojo humano, tu ves una escena un dia soleado y ves lo iluminado y lo oscuro a la vez, el sensor no, si ve lo oscuro lo blanco se quema y si sale lo claro lo oscuro no se ve. Con HDR (high dinamic range o alto rango dinamico) se intenta resolver esto como dices, sacando fotos con distinta exposición, esto es mezclar la foto donde se ve lo claro con la que se ve oscuro, normalmente hacen falta varias exposiciones, aunque con una única foto, modificando la exposición por software se puede hacer, con peores resultados. Me imagino que cuando tienes soporte HDR el video lleva información de distintas exposiciones que el dispositivo se encarga de mezclar, aunque de la última frase no estoy seguro al 100%