dc.contributor.author | Perdomo Charry, Oscar Julian | |
dc.contributor.author | Gonzalez Osorio, Fabio | |
dc.contributor.author | Perez Perez, Andrés | |
dc.date.accessioned | 2021-05-25T22:30:24Z | |
dc.date.accessioned | 2021-10-01T17:16:47Z | |
dc.date.available | 2021-05-25T22:30:24Z | |
dc.date.available | 2021-10-01T17:16:47Z | |
dc.date.issued | 2020 | |
dc.identifier.issn | 0277-786X | |
dc.identifier.uri | https://repositorio.escuelaing.edu.co/handle/001/1488 | |
dc.description.abstract | Image acquisition and automatic quality analysis are fundamental stages and tasks to support an accurate ocular diagnosis. In particular, when eye fundus image quality is not appropriate, it can hinder the diagnosis task performed by experts. Portable, smart-phone-based eye fundus image acquisition devices have the advantage of their low cost and easy deployment, however, their main disadvantage is the sacrifice of image quality. This paper presents a deep-learning-based model to assess the eye fundus image quality which is small enough to be deployed in a smart phone. The model was evaluated in a public eye fundus dataset with two sets of annotations. The proposed method obtained an accuracy of 0.911 and 0.856, in the binary classification task and the three-classes classification task respectively. Besides, the presented method has a small number of parameters compared to other state-of-the-art models, being an alternative for a mobile-based eye fundus quality classification system. | spa |
dc.description.abstract | La adquisición de imágenes y el análisis automático de la calidad son etapas y tareas fundamentales para apoyar un diagnóstico ocular preciso. En particular, cuando la calidad de la imagen del fondo del ojo no es adecuada, puede dificultar la tarea de diagnóstico realizada por los expertos. Los dispositivos portátiles de adquisición de imágenes de fondo de ojo basados en teléfonos inteligentes tienen la ventaja de su bajo coste y fácil despliegue, sin embargo, su principal desventaja es el sacrificio de la calidad de la imagen. Este artículo presenta un modelo basado en el aprendizaje profundo para evaluar la calidad de la imagen del fondo del ojo que es lo suficientemente pequeño como para ser desplegado en un teléfono inteligente. El modelo fue evaluado en un conjunto de datos de fondo de ojo público con dos conjuntos de anotaciones. El método propuesto obtuvo una precisión de 0,911 y 0,856, en la tarea de clasificación binaria y en la de tres clases, respectivamente. Además, el método presentado tiene un número reducido de parámetros en comparación con otros modelos del estado de la técnica, siendo una alternativa para un sistema de clasificación de la calidad del fondo del ojo basado en el móvil.
Traducción realizada con la versión gratuita del traductor www.DeepL.com/Translator | spa |
dc.format.mimetype | application/pdf | spa |
dc.language.iso | eng | spa |
dc.publisher | SPIE | spa |
dc.source | https://www.spiedigitallibrary.org/conference-proceedings-of-spie/11330/2547126/A-lightweight-deep-learning-model-for-mobile-eye-fundus-image/10.1117/12.2547126.short?SSO=1 | spa |
dc.title | A lightweight deep learning model for mobile eye fundus image quality assessment | spa |
dc.type | Artículo de revista | spa |
dc.description.notes | © (2020) COPYRIGHT Society of Photo-Optical Instrumentation Engineers (SPIE). Downloading of the abstract is permitted for personal use only. | spa |
dc.description.notes | Andrés D. Pérez, Oscar Perdomo, and Fabio A. González "A lightweight deep learning model for mobile eye fundus image quality assessment", Proc. SPIE 11330, 15th International Symposium on Medical Information Processing and Analysis, 113300K (3 January 2020); https://doi.org/10.1117/12.2547126 | spa |
dc.type.version | info:eu-repo/semantics/publishedVersion | spa |
oaire.accessrights | http://purl.org/coar/access_right/c_14cb | spa |
oaire.version | http://purl.org/coar/version/c_970fb48d4fbd8a85 | spa |
dc.contributor.researchgroup | GiBiome | spa |
dc.identifier.doi | 10.1117/12.2547126 | |
dc.identifier.url | https://doi.org/10.1117/12.2547126 | |
dc.publisher.place | Estados Unidos | spa |
dc.relation.citationendpage | 6 | spa |
dc.relation.citationstartpage | 1 | spa |
dc.relation.citationvolume | 113300 | spa |
dc.relation.indexed | N/A | spa |
dc.relation.ispartofjournal | Proceedings Of Spie, The International Society For Optical Engineering | spa |
dc.rights.accessrights | info:eu-repo/semantics/closedAccess | spa |
dc.subject.armarc | Aprendizaje profundo (Aprendizaje automático) | spa |
dc.subject.armarc | Calidad de imagen | spa |
dc.subject.armarc | Image quality | eng |
dc.subject.armarc | Deep Learning (Machine Learning) | eng |
dc.subject.armarc | Diagnóstico por imagen | spa |
dc.subject.armarc | Diagnostic imaging | eng |
dc.type.coar | http://purl.org/coar/resource_type/c_2df8fbb1 | spa |
dc.type.content | Text | spa |
dc.type.driver | info:eu-repo/semantics/article | spa |
dc.type.redcol | http://purl.org/redcol/resource_type/ART | spa |