|
||
|
|
|
|||||||
| Noticias del portal sobre Apple Sólo el staff puede publicar aquí |
![]() |
|
|
Herramientas |
|
#1
|
||||
|
||||
Mira de lo que es capaz la funcionalidad Deep Fusion del iPhone 11
Mira de lo que es capaz la funcionalidad Deep Fusion del iPhone 11 ![]() Leemos en teknofilo.com "Desde que salió iOS 13 hace poco más de una semana, Apple no ha parado de lanzar actualizaciones para mejorar su funcionamiento. Hoy Apple ha lanzado hoy la beta de iOS 13.2, una actualización que ofrece el esperado modo de fotografía Deep Fusion anunciado en la presentación de los nuevos iPhone 11 a principios de septiembre. Se trata de «un nuevo sistema de procesamiento de imagen basado en el Neural Engine del A13 Bionic,» en palabras de Apple. «Deep Fusion utiliza el aprendizaje automático avanzado para procesar las fotos píxel a píxel y optimizar las texturas, los detalles y el ruido en cada zona de la foto.» Deep Fusion no es un modo que se pueda activar y desactivar sino que funciona silenciosamente en segundo plano y sólo se activa cuando el entorno de iluminación lo requiere." fuente: teknofilo.com |
|
|
|
#3
|
||||
|
||||
|
Es cierto el iphone 11 te endereza las gafas , wow
__________________
|
| Los siguientes 4 usuarios han agradecido a DaniBrem su comentario: | ||
|
#6
|
||||
|
||||
|
Esto es como cuando, en una película, la policía "aumenta la resolución" de una cámara de seguridad para contar las pecas del sospechoso (o ver una matrícula ilegible). Todo lo que pueda hacer un teléfono en tiempo real hará años que es posible hacer con Photoshop (o tu herramienta favorita de retoque fotográfico) ya que no sólo dispones de mucha más potencia de cálculo sino también de más tiempo para aplicar el filtro mágico que mejora el detalle. Si con Photoshop no es posible aumentar el detalle (recordar el primer párrafo) tampoco podrás con el software de un teléfono. Conclusión, en dos palabras: TI-MO. Sí me creo que el resultado sea mejor, pero eso sólo demuestra que el procesado previo era peor. Si quieres hacer fotos profesionales, 3 palabras: "reflex", "luz" y "práctica". Los filtros se aplican después, en el laboratorio, del mismo modo que una canción se graba sin ecualizar y los efectos se aplican en el estudio. |
| Los siguientes 8 usuarios han agradecido a Zippy su comentario: | ||
|
#7
|
||||
|
||||
|
Apple a lo suyo
__________________
Apple es un estilo de vida. Think Different!
![]() Apple hace historia y alcanza los 3 billones de valor en bolsa
|
| Gracias de parte de: | ||
|
#8
|
||||
|
||||
|
Está genial que vayan mejorando, el tema es que después llegará el pixel 4 y le meterá un zasca sin florituras
|
| Los siguientes 4 usuarios han agradecido a BlueSkies su comentario: | ||
|
#9
|
||||
|
||||
|
|
|
#10
|
||||
|
||||
|
Supongo que ser un Apple fanboy es demasiado fuerte como para comprender la primera ley del tratamiento de señales: "de donde no hay no se puede sacar": la definición la marca exclusivamente la resolución del sensor.
Esto es como cuando, en una película, la policía "aumenta la resolución" de una cámara de seguridad para contar las pecas del sospechoso (o ver una matrícula ilegible). Todo lo que pueda hacer un teléfono en tiempo real hará años que es posible hacer con Photoshop (o tu herramienta favorita de retoque fotográfico) ya que no sólo dispones de mucha más potencia de cálculo sino también de más tiempo para aplicar el filtro mágico que mejora el detalle. Si con Photoshop no es posible aumentar el detalle (recordar el primer párrafo) tampoco podrás con el software de un teléfono. Conclusión, en dos palabras: TI-MO. Sí me creo que el resultado sea mejor, pero eso sólo demuestra que el procesado previo era peor. Si quieres hacer fotos profesionales, 3 palabras: "reflex", "luz" y "práctica". Los filtros se aplican después, en el laboratorio, del mismo modo que una canción se graba sin ecualizar y los efectos se aplican en el estudio. ![]() Gracias por decir lo que yo no sabría explicar mejor. Chapó
__________________
----------------------------------------------------------------------------------------
La tecnología debería adaptarse al usuario, nunca al revés. ----------------------------------------------------------------------------------------![]() |
|
#11
|
||||
|
||||
|
Ea ea ea el chupete .
__________________
|
| Los siguientes 2 usuarios han agradecido a DaniBrem su comentario: | ||
|
#12
|
||||
|
||||
|
Supongo que ser un Apple fanboy es demasiado fuerte como para comprender la primera ley del tratamiento de señales: "de donde no hay no se puede sacar": la definición la marca exclusivamente la resolución del sensor.
Esto es como cuando, en una película, la policía "aumenta la resolución" de una cámara de seguridad para contar las pecas del sospechoso (o ver una matrícula ilegible). Todo lo que pueda hacer un teléfono en tiempo real hará años que es posible hacer con Photoshop (o tu herramienta favorita de retoque fotográfico) ya que no sólo dispones de mucha más potencia de cálculo sino también de más tiempo para aplicar el filtro mágico que mejora el detalle. Si con Photoshop no es posible aumentar el detalle (recordar el primer párrafo) tampoco podrás con el software de un teléfono. Conclusión, en dos palabras: TI-MO. Sí me creo que el resultado sea mejor, pero eso sólo demuestra que el procesado previo era peor. Si quieres hacer fotos profesionales, 3 palabras: "reflex", "luz" y "práctica". Los filtros se aplican después, en el laboratorio, del mismo modo que una canción se graba sin ecualizar y los efectos se aplican en el estudio. ![]() |
| Gracias de parte de: | ||
|
#13
|
||||
|
||||
|
|
|
#14
|
||||
|
||||
|
La inteligencia artificial no existe más allá de los clásicos "sistemas expertos" y del "aprendizaje mediante entrenamiento" (o si lo prefieres, "machine learning").
Se ha abusado tanto de esas palabras que sirven perfectamente para decorar mejoras reales que no tienen nada que ver con "inteligencia"... y este es un caso más: que hayan aprendido a colocar pixeles falsos para dar una sensación de mayor detalle no cambia el hecho de que esos pixeles no han sido capturados por el sensor. Dicho de otro modo: hace 20 años que existen programas que mejoran las texturas recurriendo a los sistemas de funciones iteradas (IFS) pero esas texturas no dejan de ser falsas. En fotografía no me muestres una foto mejor que el original. Como ironizan en CommitStrip: http://www.commitstrip.com/en/2017/06/07/ai-inside |
|
#15
|
||||
|
||||
|
La inteligencia artificial no existe más allá de los clásicos "sistemas expertos" y del "aprendizaje mediante entrenamiento" (o si lo prefieres, "machine learning").
Se ha abusado tanto de esas palabras que sirven perfectamente para decorar mejoras reales que no tienen nada que ver con "inteligencia"... y este es un caso más: que hayan aprendido a colocar pixeles falsos para dar una sensación de mayor detalle no cambia el hecho de que esos pixeles no han sido capturados por el sensor. Dicho de otro modo: hace 20 años que existen programas que mejoran las texturas recurriendo a los sistemas de funciones iteradas (IFS) pero esas texturas no dejan de ser falsas. En fotografía no me muestres una foto mejor que el original. Como ironizan en CommitStrip: http://www.commitstrip.com/en/2017/06/07/ai-inside ![]() |
| Gracias de parte de: | ||
|
#17
|
||||
|
||||
|
Y cuando salga el iphone 12 pondrán iphone 11 a la foto de la izquierda y el 12 al de la derecha?
|
|
#18
|
||||
|
||||
|
A ver, es que en camaras se gastaron poco y chip mucho. Y yo tb creo que inventar píxeles tb se podia hacer en la nube, no justica que pierda batería por ello.
|
![]() |
Estás aquí
|
||||||
|
||||||