tag:blogger.com,1999:blog-84690259891195701902024-03-21T11:33:00.691-07:00Noticias sobre Visión por ComputadorJosé Vélezhttp://www.blogger.com/profile/00293541553192557574noreply@blogger.comBlogger31125tag:blogger.com,1999:blog-8469025989119570190.post-45110886853765425652016-09-10T00:16:00.001-07:002016-09-10T00:16:34.015-07:00Algoritmos de reconocimiento de facebookhttp://m.xatakafoto.com/actualidad/facebook-publica-de-forma-gratuita-sus-algoritmos-de-reconocimiento-fotografico?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+xatakafoto+%28Xataka+foto%29José Vélezhttp://www.blogger.com/profile/00293541553192557574noreply@blogger.com0tag:blogger.com,1999:blog-8469025989119570190.post-6585018706391132882016-06-22T09:54:00.001-07:002016-06-22T09:54:04.122-07:00Avances en el reconocimiento de rostroshttp://www.techinsider.io/findface-facial-recognition-can-identify-you-with-just-a-picture-of-your-face-2016-6José Vélezhttp://www.blogger.com/profile/00293541553192557574noreply@blogger.com0tag:blogger.com,1999:blog-8469025989119570190.post-57339370795545384932016-05-29T01:29:00.001-07:002016-05-29T01:29:42.858-07:00Reconocimiento sobre imágenes de satélitehttp://barrapunto.com/article.pl?sid=16/05/28/169226&from=rssJosé Vélezhttp://www.blogger.com/profile/00293541553192557574noreply@blogger.com0tag:blogger.com,1999:blog-8469025989119570190.post-56409854321190090842016-04-03T10:44:00.001-07:002016-04-04T10:46:34.805-07:00Coloreando con deeplearningEl uso de redes neuronales profundas está revolucionando las técnicas de visión artificial. Cada semana aparecen nuevas aplicaciones de estas redes a problemas que antes se basaban en algoritmos heurísticos. Si en diciembre <a href="http://www.xataka.com/aplicaciones/microsoft-research-le-gana-al-resto-en-reconocimiento-de-imagen">Microsoft deslumbraba</a> con su sistema de reconocimiento de imágenes. Esta semana ha tocado el turno al <a href="https://www.meneame.net/story/algoritmo-capaz-colorear-fotografias-blanco-negro-eng">coloreado automático de imágenes</a>,<br />
<br />
<br />
<br />José Vélezhttp://www.blogger.com/profile/00293541553192557574noreply@blogger.com0tag:blogger.com,1999:blog-8469025989119570190.post-7751251793954527322016-02-18T21:39:00.001-08:002016-02-18T21:39:53.309-08:00Los 10 congresos más importantes de 2016http://eecvc.com/10-must-attent-computer-vision-conferences-of-2016/José Vélezhttp://www.blogger.com/profile/00293541553192557574noreply@blogger.com0tag:blogger.com,1999:blog-8469025989119570190.post-7993468510868121882016-02-18T21:34:00.001-08:002016-02-18T21:34:09.553-08:00API cloud de Google<p dir="ltr">Google hace pública su <a href="http://googlecloudplatform.blogspot.com.es/2016/02/Google-Cloud-Vision-API-enters-beta-open-to-all-to-try.html?m=1">API</a> para uso de aplicaciones de visión. El enfoque parece el de un producto cerrado que directamente da resultados, y no precisa ningún tipo de parametrización.<br>
</p>
José Vélezhttp://www.blogger.com/profile/00293541553192557574noreply@blogger.com0tag:blogger.com,1999:blog-8469025989119570190.post-44682557520593762842016-02-18T10:16:00.001-08:002016-02-18T10:16:19.333-08:00Novedades en OpenCV 3.1El 21 de Diciembre de 2015 se presentó la versión 3.1 de OpenCV, evolución de la OpenCV 3.0 que se presentó en Junio. Desde ahora los números de versión cambiarán de esta forma, que difiere a como nos tenían acostumbrados antes. En el siguiente <a href="https://www.youtube.com/watch?v=OUbUFn71S4s">vídeo</a> se muestran los nuevos algoritmos que se han incorporado. <a href="https://github.com/Itseez/opencv/wiki/ChangeLog">Aquí</a> hay una lista más detallada de los cambios.José Vélezhttp://www.blogger.com/profile/00293541553192557574noreply@blogger.com0tag:blogger.com,1999:blog-8469025989119570190.post-80407467964742278592016-02-14T23:29:00.001-08:002016-02-15T03:56:02.250-08:00Reconocimiento de bordes, textura y mejora de imagen<div dir="ltr">
Cuentan en <a href="http://www.microsiervos.com/archivo/tecnologia/avanzado-reconocimiento-imagenes-codigo-abierto.html">Microsiervos</a> que desde la universidad de <a href="http://www.ucla.edu/">UCLA</a> proponen <a href="http://newsroom.ucla.edu/releases/ucla-researchers-release-open-source-code-for-powerful-image-detection-algorithm">un algoritmo de código abierto</a> ultrarápido para mejorar nuestros proyectos de Visión Artificial. El algoritmo, que denominan Phase Stretch Transform, permite mejorar imágenes, detectar bordes y caracterizar texturas. El código en Matlab se puede descargar desde <a href="https://github.com/JalaliLabUCLA/Image-feature-detection-using-Phase-Stretch-Transform">Github</a>.<br />
<br />
<div class="separator" style="clear: both; text-align: center;">
<a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiYCglv7YPfS6ffvvnmoUarr9RLO9-z_DjX-DugZerHVJfyts2Dw49AIQ608wfenh3G-C7KGscHXF3bBAMSYKEY2aF4qnKVU0plp8Aw8nZy8NNcIahU-prWeJvVgOnfr3wqAy_Ku8lXE_E/s1600/PST+-+by+Uqam.jpg" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"><img border="0" height="149" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiYCglv7YPfS6ffvvnmoUarr9RLO9-z_DjX-DugZerHVJfyts2Dw49AIQ608wfenh3G-C7KGscHXF3bBAMSYKEY2aF4qnKVU0plp8Aw8nZy8NNcIahU-prWeJvVgOnfr3wqAy_Ku8lXE_E/s320/PST+-+by+Uqam.jpg" width="320" /></a></div>
</div>
José Vélezhttp://www.blogger.com/profile/00293541553192557574noreply@blogger.com0tag:blogger.com,1999:blog-8469025989119570190.post-56822276672993298142016-02-14T09:06:00.001-08:002016-02-15T04:27:33.325-08:00Drones que buscaran excursionistas perdidos<div dir="ltr">
Cuentan en <a href="http://m.xataka.com/drones/estos-drones-estan-aprendiendo-a-moverse-por-pistas-forestales-buscaran-a-excurionistas-perdidos?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+xataka2+%28Xataka%29">Xataca</a> que investigadores de la <a href="http://www.mediadesk.uzh.ch/articles/2016/drohnen-suchen-selbstaendig-auf-waldwegen-nach-vermissten-_en.html">Universidad de Zurich</a> están desarrollando unos drones equipados con cámaras y sistemas de Visión Artificial (basados en Deep learning) para moverse por el bosque. </div>
José Vélezhttp://www.blogger.com/profile/00293541553192557574noreply@blogger.com0tag:blogger.com,1999:blog-8469025989119570190.post-84936677879584055912016-01-28T23:36:00.001-08:002016-01-28T23:36:37.673-08:00Reconocimiento de objetos mediante deeplearning en el bolsillo<p dir="ltr">Google quiere que los Nexus reconozcan objetos http://m.xataka.com/moviles/los-futuros-smartphones-de-google-ofreceran-reconocimiento-facial-y-de-objetos?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+xataka2+%28Xataka%29 </p>
José Vélezhttp://www.blogger.com/profile/00293541553192557574noreply@blogger.com0tag:blogger.com,1999:blog-8469025989119570190.post-38990182869487129952015-07-21T03:08:00.002-07:002015-07-21T03:09:00.562-07:00Hacia el reconocimiento de imágenes en fotografiasLeo en <a href="http://wwwhatsnew.com/2015/06/29/una-web-para-demostrar-un-sistema-de-reconocimiento-de-imagenes/">WhatsNew</a> que las universidades de Oxford y Stanford colaboran en <a href="http://www.robots.ox.ac.uk/~szheng/papers/CRFasRNN.pdf">un sistema de reconocimiento de imágenes</a> que permite identificar objetos dentro de las fotografías. Nos brindan la oportunidad de probarlo usando esta <a href="http://www.robots.ox.ac.uk/~szheng/crfasrnndemo">web</a>.José Vélezhttp://www.blogger.com/profile/00293541553192557574noreply@blogger.com0tag:blogger.com,1999:blog-8469025989119570190.post-34106236288901522542015-06-26T03:12:00.002-07:002015-06-26T03:12:58.396-07:00Completo índice de conjuntos de prueba para visión <a href="http://www.vision.ee.ethz.ch/%7Erhayko/">Hayko Riemenschneider</a> ha publicado una completa (y visual) recopilación de conjuntos de prueba para temas de visión que abarcan un sinfín de categorías. Lo denomina YACVID y se puede acceder mediante esta <a href="http://riemenschneider.hayko.at/vision/dataset/">web</a>.José Vélezhttp://www.blogger.com/profile/00293541553192557574noreply@blogger.com0tag:blogger.com,1999:blog-8469025989119570190.post-80827389990798512992015-06-13T23:30:00.004-07:002015-06-13T23:40:02.066-07:00Ya tenemos OpenCV 3.0Desde el pasado 4 de Junio está disponible la versión estable de Open CV 3.0. Entre sus <a href="http://opencv.org/opencv-3-0.html">nuevas características</a> podemos destacar:<br />
<ul>
<li>Capa transparente de aceleración GPU que, si es posible, se activará automáticamente al invocar a más de 100 funciones. </li>
<li>Inclusión de un subconjunto de las bibliotecas <a href="https://software.intel.com/en-us/articles/intel-integrated-performance-primitives-intel-ipp-open-source-computer-vision-library-opencv-faq">IPPCV</a>. </li>
<li>Nuevo estilo de <a href="http://docs.opencv.org/master/">documentación</a>. </li>
<li>Integración con Python 3.0. </li>
<li>Multitud de nuevos algoritmos (detección de texto, ajuste de formas 2D y 3D, algoritmos de tracking y de flujo óptico, superpixels...). </li>
<li>Cambios en el API para homogeneizarlo (<a href="http://docs.opencv.org/master/db/dfa/tutorial_transition_guide.html">transición de 2.X a 3.X</a>).
</li>
</ul>
José Vélezhttp://www.blogger.com/profile/00293541553192557574noreply@blogger.com0tag:blogger.com,1999:blog-8469025989119570190.post-22901926633760049972015-05-28T10:37:00.002-07:002015-05-28T10:39:00.269-07:00Comparando el ojo con una cámaraPublican en Microsiervos un interesante <a href="http://www.microsiervos.com/archivo/ciencia/como-funciona-ojo-humano-diferencia-funcionamiento-camara.html">vídeo</a> que describe los parecidos y diferencias entre el funcionamiento de una cámara y el funcionamiento del ojo. Y esto me recuerda el <a href="https://www.youtube.com/watch?v=LKnqECcg6Gw">vídeo</a> que los chicos de un minuto de física publicaron explicando porqué los ordenadores presentan mal los colores si no se tiene en cuenta la <a href="http://es.wikipedia.org/wiki/Correcci%C3%B3n_gamma">corrección gamma</a>.José Vélezhttp://www.blogger.com/profile/00293541553192557574noreply@blogger.com0tag:blogger.com,1999:blog-8469025989119570190.post-78906230904924499722014-12-03T11:47:00.003-08:002014-12-03T12:01:54.200-08:00Robots en las profesiones cotidianasA la vista de las últimas presentaciones, los fabricantes de robots tiene puesto el punto de mira en profesiones comunes como <a href="https://www.youtube.com/watch?v=tMpsMt7ETi8">almacenista</a>, <a href="http://www.infiniumrobotics.com/indoor-technologies">camarero</a>, <a href="https://www.youtube.com/watch?v=83-bpqogngg">agente</a> o <a href="http://www.xatakaciencia.com/robotica/la-humanoide-lee-etiquetas-rfid?utm_source=feedburner&utm_medium=feed&utm_campaign=29_Nov_2014">tendero</a>. En estos últimos ejemplos la visión artificial juega un papel fundamental.José Vélezhttp://www.blogger.com/profile/00293541553192557574noreply@blogger.com0tag:blogger.com,1999:blog-8469025989119570190.post-13361273353637001012014-08-11T08:45:00.001-07:002014-08-11T08:45:52.484-07:00Manipulación 3D de los objetos de una fotografíaCuenta <a href="http://www.rtve.es/noticias/20140808/programa-informatico-permite-manipular-3d-objetos-fotografia/989560">Microsiervos</a> que investigadores de Carnegie Mellon y Berkeley tienen muy avanzado un sistema informático que permite editar tridimensionalmente los objetos de cualquier fotografía. Para ello, además de la propia fotografía, utilizan bases de datos de objetos con las que completar el modelo. <a href="http://www.cs.cmu.edu/~om3d/">Aquí</a> cuentan los detalles.José Vélezhttp://www.blogger.com/profile/00293541553192557574noreply@blogger.com0tag:blogger.com,1999:blog-8469025989119570190.post-62356376683251495212014-03-05T11:07:00.002-08:002014-03-05T11:07:50.259-08:00Hacia el entendimiento de la transmisión de imágenes al cerebroSe puede leer en <a href="http://vozpopuli.com/next/39863-el-secreto-de-la-vision-el-cerebro-mejora-al-ojo-con-su-propio-photoshop">Next</a> que, Luis Martínez Otero, investigador de origen español, dirige, fuera de España, un equipo que está realizando importantes avances en la compresión de la transmisión de las imágenes entre el ojo y el cerebro. Tanto es así que <a href="http://www.cell.com/neuron/abstract/S0896-6273%2813%2901145-8">ha sido portada de la revista Neuron</a>. Incluso señalan que este nuevo conocimiento permitiría desarrollar nuevos enfoques para el desarrollo de algoritmos de visión artificial.José Vélezhttp://www.blogger.com/profile/00293541553192557574noreply@blogger.com0tag:blogger.com,1999:blog-8469025989119570190.post-56908618880156451322014-01-31T02:24:00.002-08:002014-01-31T02:24:41.436-08:00¿Por qué no dejar que el ordenador decida las caracteristicas discriminantes?Ésta es la pregunta que se hizo <a href="https://ece.byu.edu/faculty/djlee">Dah-Jye Lee</a> de la <a href="http://home.byu.edu/home/">Brigham Young University</a>. Y ni corto ni perezoso, ha implementado un algoritmo que, utilizando un algoritmo genético, decide qué vector de características es mejor para cualquier problema que se le ponga por delante. Según cuenta, en su <a href="http://www.sciencedirect.com/science/article/pii/S0031320313002549">publicación</a> del Pattern Recognition, con un computador modesto, en dos horas puede tener listo el vector de características para el problema más pintado. En el artículo muestra los resultados que obtiene su sistema con varios problemas de reconocimiento descritos por otros autores (que utilizan vectores de características ideados de manera "artesanal") y los bate a todos.José Vélezhttp://www.blogger.com/profile/00293541553192557574noreply@blogger.com0tag:blogger.com,1999:blog-8469025989119570190.post-31137079449547481872013-10-30T02:48:00.002-07:002013-10-30T02:48:39.468-07:00Reconocimiento de caracteres en captchasLa empresa <a href="http://vicarious.com/">Vicarious</a> desarrolla un software para reconocer texto que resulta efectivo con el 90% de los captchas (incluyendo algunos de ReCaptcha). En este <a href="http://vimeo.com/77431982">vídeo</a> se pueden comprobar sus resultados. El método no se ha explicado, pero afirman utilizar un proceso similar al que utilizan los humanos.José Vélezhttp://www.blogger.com/profile/00293541553192557574noreply@blogger.com0tag:blogger.com,1999:blog-8469025989119570190.post-71267581352422596382013-10-18T06:38:00.001-07:002013-10-18T06:38:15.795-07:00Realidad aumentada para mantenimiento del cocheSi cada vez que abres el capó del coche te preguntas por dónde se echa el líquido del limpia parabrisas, el de frenos, o el aceite, te gustará saber que pronto podríamos tener aplicaciones, como la de este <a href="http://www.microsiervos.com/archivo/tecnologia/realidad-aumentada-reparacion-vehiculos.html">vídeo</a>, que nos guiarán en estas tareas.José Vélezhttp://www.blogger.com/profile/00293541553192557574noreply@blogger.com0tag:blogger.com,1999:blog-8469025989119570190.post-56412428787823886272013-10-18T06:30:00.002-07:002013-10-18T06:30:55.017-07:00MIcrosoft propone usar kinect para probarnos ropa<a href="http://www.youtube.com/watch?v=Mr71jrkzWq8">Así</a> ve Microsoft cómo Kinect podría ayudar a los comercios de ropa.José Vélezhttp://www.blogger.com/profile/00293541553192557574noreply@blogger.com0tag:blogger.com,1999:blog-8469025989119570190.post-69814140058041650202013-10-09T03:53:00.001-07:002013-10-09T03:59:23.670-07:00Captura de la realidad desde una fotoEn el SIGGRAPH de Asia se ha publicado este impresionante <a href="http://cg.cs.tsinghua.edu.cn/3sweep/">trabajo</a> en el siguiente <a href="http://www.youtube.com/watch?v=Oie1ZXWceqM">vídeo</a> se puede ver el sistema en funcionamiento y cómo permite extraer objetos tridimensionales de imágenes 2D con unos pocos cliks. El trabajo me ha recordado <a href="http://www.youtube.com/watch?v=z4obTZV2QEM">este otro</a> que lo hacía desde vídeo y este <a href="http://www.youtube.com/watch?v=VuoljANz4EA">otro</a> que lo hacía con edificios.José Vélezhttp://www.blogger.com/profile/00293541553192557574noreply@blogger.com0tag:blogger.com,1999:blog-8469025989119570190.post-53252056075420840252013-10-04T08:07:00.002-07:002013-10-04T08:07:26.664-07:00Más ilusiones ópticasRecientemente, en microsiervos ha aparecido esta <a href="http://www.microsiervos.com/archivo/juegos-y-diversion/ilusion-visual-potente-alucinogena.html" target="_blank">ilusión óptica</a>.
Para experimentarla debes leer todas las letras que aparecen en el
centro de la pantalla, sin apartar la vista, y al final mira cualquier
otro objeto fuera de la pantalla. Me ha recordado a esta <a href="http://www.youtube.com/watch?v=bo7E6jHHbSY" target="_blank">otra</a>
que es estática (en este caso te recomiendo bajar el volumen y poner
pantalla completa). La exposición de la retina a una imagen con alto
contraste durante un periodo de tiempo prolongado parece la responsable
de ambas. <br />
<br />
También me parece interesante este <a href="http://www.xatakafoto.com/videos-time-lapses-stop-motion/como-crear-increibles-efectos-visuales-de-bajo-coste-usando-juguetes-y-jugando-con-la-perspectiva-de-tu-camara" target="_blank">vídeo</a> que ilustra que con sólo una perspectiva (sin visión estéreo) no distinguimos bien las distancias (gracias a xataca foto).<br />
<br />
Finalmente, en "the serious Computer Vision Blog" han publicado algunas <a href="http://computervisionblog.wordpress.com/2013/09/16/why-visual-illusions-illusory-contours-and-checkerboard-illusion/" target="_blank">ilusiones</a>
más. Es especialmente interesante la del tablero de ajedrez que permite
comprobar cómo el blanco y el negro son conceptos relativos para
nuestra percepción.José Vélezhttp://www.blogger.com/profile/00293541553192557574noreply@blogger.com0tag:blogger.com,1999:blog-8469025989119570190.post-49358738857013113752013-04-14T09:37:00.002-07:002013-04-14T09:43:22.736-07:00Una revista de visión como deberían de ser todasRecientemente me ha sorprendido gratamente la revista especializada en visión artificial <a href="http://www.ipol.im/">IPOL</a>. Es una revista on-line, que comenzó su andadura en el año 2010. Esta revista, tiene la grata particularidad de proporcionar el código de todos sus artículos, así como una demo ejecutable desde el navegador. De esta forma puedes ver lo que hacen, y si te parece interesante, continuar leyendo.José Vélezhttp://www.blogger.com/profile/00293541553192557574noreply@blogger.com0tag:blogger.com,1999:blog-8469025989119570190.post-2320983450741330922013-03-20T12:00:00.000-07:002013-03-20T12:00:02.897-07:00Ya está disponible la versión 1.7 del SDK de KinectYa está listo para <a href="http://www.microsoft.com/en-us/kinectforwindows/develop/new.aspx">descarga</a> la versión 1.7 del SDK de Kinect. <a href="http://www.xataka.com/consolas-y-videojuegos/kinect-para-windows-ya-esta-listo-para-escanear-cuerpos-y-objetos-en-3d?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+xataka2+%28Xataka%29">Comentan</a> en diversos foros que incluye dos novedades principales: Kinect Fusion y Kinect Interactions. Kinect Fusion permite crear modelos 3D en tiempo real de objetos e incluso de personas, mientras que Kinect Interactions amplía los gestos que el SDK ya era capaz de identificar.José Vélezhttp://www.blogger.com/profile/00293541553192557574noreply@blogger.com0