Pues esta perece ser la premisa del Software presentado en el pasado Siggraph Asia 2013. Un equipo comprendido por investigadores del Centro Interdisciplinario de Israel y de la Universidad de Tel Aviv se encuentra en desarrollo del un software denominado "3-Sweep" y el cual promete desarrollar el modelado de piezas en 3D, totalmente editables y transformables a partir de una imagen o foto y con solo 3 clicks, procedimiento que hasta el momento podía volverse tedioso y complicado no solo por el tiempo empleado, sino también por el costo que esto representaba.
El software Permite delimitar los bordes de un objeto en una fotografía (Eso si el objeto debe existir en la realidad, hasta el momento no se admiten dibujos en 2d a menos que se hayan realizado con extrema rigurosidad) y automáticamente convertirlo en un modelo 3D que se puede rotar, duplicar y transformar como se quiera.
El procedimiento es sencillo, se inserta la fotografía, se seleccionan en tres líneas los ejes del objeto que deseamos modelar, y automáticamente el software reconoce la volumetría del objeto y generar el modelo; eso si, sin materiales y crea un objeto cerrado y único lo que representa una gran limitante si se trata de un objeto dentro de otro y los necesitamos separados.
Tao Chen, que hace parte del equipo desarrollador, afirmó que este tipo de software no es para los expertos en 3D. "Nuestro principal objetivo sigue siendo ayudar a los nuevos usuarios a hacer este tipo de cosas", explicó. Para el equipo, dirigido por Daniel Cohen-O, el mayor desafío fue no necesariamente trabajar con todos los cálculos algorítmicos detrás del modelo, sino ofrecerles a los usuarios una forma fácil para aprovecharlo. "Nos tomó un tiempo averiguar cómo hacer una interfaz de usuario muy conveniente para generar esta clase de cosas", dice Chen.
El enfoque es el más inteligente, 3-Sweep aprovecha "las fortalezas de los seres humanos y las computadoras. Nuestras capacidades perceptivas están intervenidos a reconocer, la posición y las formas de partición, mientras que el equipo hace todo el trabajo pesado como la texturización, el cálculo y la de detección de bordes". fuente wired.com
No obstante, como dije al principio, se trata de una propuesta en desarrollo y todavía falta bastante para que siquiera veamos una demo abierta el público; y hasta el momento solo se pueden generar objetos a partir de formas básicas, si representa un gran avance en cuanto a la optimización de tiempo en procesos y en la generación de contenido abierto para todo el público, en un mercado hasta el momento muy cerrado y que a mas de uno ha de interesar, ya que como dicen los mismos desarrolladores “no se necesita talento artístico para crear un modelo”.
Aquí un video acerca de la demostración realizada en este evento.


No hay comentarios.:
Publicar un comentario