
Del 2D al 3D en un IAperiquete.
No solamente unos sesudos investigadores de la Universidad Simon Fraser de Canadá se divierten creando un nuevo modelo de visión computarizada con IA capaz de ver profundidad en las imágenes, sino que además les pagan por ello. ¿Será posible?, ¿hasta dónde vamos a llegar?
Bueno, pues yo os pongo el último párrafo del artículo que acabo de ver en Xatakafoto y os dejo con las miserias de la Universidad Española que seguramente no hace nada de eso.
Este avance en análisis de profundidad de imagen podría ser vital para desarrollar mejores herramientas en fotografía computacional. Algunas herramientas como el bokeh falso de Abode pueden beneficiarse en ese proceso, e incluso se pueden usar para crear ajustes especiales en la imagen. Los smartphones podrían usar una mezcla entre los sensores ToF y el algoritmo para producir mejores resultados en los ajustes de iluminación de los elementos, y así no sería necesario implementar herramientas adicionales como el sensor LiDAR que Apple tiene en sus iPhone 12 Pro.
Lo cuentan en:
Y solo para jóvenes intrépidos sin miedo a nada el “paper.pdf” que lo explica todo tiene este simpático título:
Boosting Monocular Depth Estimation Models to High-Resolution via Content-Adaptive Multi-Resolution Merging
- Y está aquí