Revista Cienfica, FCV-LUZ / Vol. XXXV Recibido: 11/04/2025 Aceptado: 27/09/2025 Publicado: 04/11/2025 UNIVERSIDAD DEL ZULIA Serbiluz Sistema de Servicios Bibliotecarios y de Información Biblioteca Digital Repositorio Académico 1 of 6 Revista Cienfica, FCV-LUZ / Vol. XXXV https://doi.org/10.52973/rcfcv-e35672 UNIVERSIDAD DEL ZULIA Serbiluz Sistema de Servicios Bibliotecarios y de Información Biblioteca Digital Repositorio Académico Aplicación de Deep Learning para el diagnósco rápido y preciso de fracturas óseas en perros mediante imágenes radiográficas Applicaon of Deep Learning for the rapid and accurate diagnosc of bone fractures in dogs using radiographic images Fernando Armijos-Aguilar* , Iván Ramírez-Morales , Lorena Zapata-Saavedra Facultad de Ciencias Agropecuarias, Universidad Técnica de Machala, Centro de Postgrados Universidad Técnica de Machala, Machala – El Oro, Ecuador. *Autor correspondencia: farmijos4@utmachala.edu.ec RESUMEN La radiograa connúa siendo la herramienta diagnósca de mayor uso en la medicina veterinaria para la detección de fracturas óseas en perros. No obstante, su interpretación manual puede verse afectada por la experiencia del profesional, así como por factores como el cansancio o la sobrecarga laboral. En este contexto, el presente estudio evaluó el desempeño de un modelo de deep learning basado en la arquitectura YOLOv5, orientado al diagnósco de imágenes radiográficas caninas divididas en dos categorías: presencia o ausencia de fracturas. El modelo alcanzó una precisión del 83.3%, superando significavamente a tres médicos veterinarios generales, quienes registraron porcentajes de acierto de entre el 40% y el 70%. Además, el sistema automazado permió reducir el empo promedio de diagnósco en un 40%, logrando clasificaciones en cuesón de segundos. Esos resultados resaltan la viabilidad de la inteligencia arficial como herramienta para mejorar la precisión, la rapidez y la consistencia del diagnósco en medicina veterinaria, especialmente en entornos con recursos humanos limitados. Se recomienda ampliar la base de datos y validar el modelo en contextos clínicos reales. Palabras clave: Deep learning; radiología; inteligencia arficial; fracturas; Veterinaria ABSTRACT Radiography remains the most widely used diagnosc tool in veterinary medicine for detecng bone fractures in dogs. However, manual interpretaon can be affected by the clinician’s level of experience, as well as by factors such as fague or excessive workload. In this context, the present study evaluated the performance of a deep learning model based on the YOLOv5 architecture, aimed at diagnosc canine radiographic images divided into two categories: presence or absence of fracture. The model achieved an accuracy of 83.3%, significantly outperforming three general pracce veterinarians, whose accuracy ranged from 40% to 70%. Furthermore, the automated system reduced the average diagnosc me by 40%, delivering classificaons within seconds. These results highlight the feasibility of arficial intelligence as a tool to enhance diagnosc precision, speed, and consistency in veterinary medicine, especially in resource- constrained environments. Further dataset expansion and clinical validaon are recommended. Key words: Deep Learning; radiology, arficial intelligence, fractures, Veterinary Medicine
Revista Cienfica, FCV-LUZ / Vol. XXXV UNIVERSIDAD DEL ZULIA Serbiluz Sistema de Servicios Bibliotecarios y de Información Biblioteca Digital Repositorio Académico INTRODUCCIÓN La inteligencia arficial ha evolucionado a lo largo del empo desde sus primeras conceptualizaciones hasta converrse ahora en una herramienta prácca en múlples campos. René Descartes y Charles Babbage sentaron las bases teóricas y práccas, mientras que John McCarthy adoptó el término “inteligencia arficial” para describir máquinas capaces de realizar tareas que requieren razonamiento humano [1]. Desde la creación y formalización del pensamiento computacional hasta su aplicación en tareas complejas. Actualmente, la IA está presente en diversos sectores como la medicina, manufactura y banca, potenciando la conecvidad global y la compevidad en un mundo cada vez más interconectado [2]. En parcular, el deep learning, una rama de la IA, se ha destacado por su capacidad para aprender y reconocer patrones complejos en datos visuales, como imágenes médicas. Esta tecnología, que uliza redes neuronales convolucionales (CNN), ha demostrado ser revolucionaria en el diagnósco médico, brindando mayor precisión y rapidez en la detección de patologías tanto en humanos como en animales [3]. En el ámbito de la Medicina Veterinaria, la radiología es la técnica de diagnósco más apropiada y ulizada para idenficar fracturas óseas debido a su accesibilidad y costo reducido [4]. Sin embargo, la interpretación manual de las imágenes radiográficas depende en gran medida de la experiencia interpretava del profesional, lo que puede incurrir en errores diagnóscos debido a factores como la faga, la variabilidad en la calidad de las imágenes y la carga laboral en las clínicas veterinarias. Estas limitaciones pueden alterar o retrasar el diagnósco y llevar a no brindar atención adecuada para el paciente [2]. En los úlmos años, la incorporación de técnicas y herramientas avanzadas de inteligencia arficial (IA), en parcular el deep learning, han abierto nuevas posibilidades diagnoscas en las áreas de la salud. El deep learning, especialmente las CNN, ha demostrado una eficacia mayor en la detección y clasificación de patrones complejos en imágenes médicas humanas, reduciendo tanto el empo de diagnósco como la incidencia de errores derivados de la interpretación visual [3]. Esta tecnología ene el potencial de transformar la prácca veterinaria al proporcionar diagnóscos rápidos y precisos en la detección de fracturas óseas, mejorando así la toma de decisiones clínicas [3]. Estudios previos en medicina humana, como el modelo CheXNeXt de Rajpurkar et al. [5], han evidenciado que las CNN pueden igualar o incluso superar la precisión de radiólogos expertos en la idenficación de patologías radiográficas, con empos de diagnósco significavamente reducidos. En el contexto veterinario, donde las bases de datos radiográficas son limitadas, la implementación de CNN podría ajustarse mediante estrategias de aumento de datos y transferencia de aprendizaje. Aun así, existen barreras relacionadas con la calidad de los datos, la adaptabilidad a diferentes especies y la integración en el flujo de trabajo clínico [5]. El sistema esqueléco de los perros es fundamental para la movilidad y la protección de órganos. Factores como la densidad ósea, la dieta y la acvidad sica influyen en la suscepbilidad a fracturas, siendo más comunes las oblicuas, espirales y trasversales [6]. Invesgaciones como la de Mora-Tola et al. [7] destacan la relación entre los pos de fracturas y las fuerzas biomecánicas que las provocan, además subrayan que ciertas razas grandes enen mayor predisposición a fracturas debido a su peso y nivel de acvidad. Las radiograas son el método de diagnósco más comúnmente usado para evaluación de fracturas, aunque, también existen herramientas avanzadas como la tomograa computarizada que ofrecen mayor detalle, pero su uso sigue siendo limitado en entornos clínicos veterinarios por razones de costo y disponibilidad [8]. El uso de deep learning en la radiología veterinaria ha revolucionado el análisis de imágenes médicas. Las CNN, en parcular, destacan por su capacidad para procesar grandes volúmenes de datos y aprender patrones relevantes sin intervención manual [9]. Modelos como CheXNeXt han demostrado que estas redes pueden igualar o incluso superar a especialistas humanos en tareas específicas de clasificación, reduciendo además el empo de diagnósco de manera significava [10]. En Medicina Veterinaria, las CNN han sido adaptadas para abordar parcularidades anatómicas y limitaciones de los datasets disponibles, empleando técnicas como el aumento de datos y el aprendizaje por transferencia [9]. Estas estrategias permiten superar las barreras asociadas con la diversidad limitada de las imágenes veterinarias, opmizando la precisión en la detección de fracturas [3]. Los modelos de deep learning presentan ventajas significavas frente a los métodos manuales tradicionales [11]. La precisión y sensibilidad logradas por las CNN superan las de los veterinarios en estudios controlados, destacándose también por su consistencia y reducción de errores diagnóscos [12]. Además, el empo de diagnósco promedio con herramientas automazadas es considerablemente menor, lo que mejora la eficiencia clínica, especialmente en entornos con alta carga laboral [13]. La adopción de la IA en medicina veterinaria plantea oportunidades y desaos. Por un lado, sistemas como las CNN pueden integrarse fácilmente en el flujo de trabajo clínico, asisendo tanto a expertos como a personal no especializado [14]. Por otro lado, aspectos como el sesgo en los datos, la calidad de las imágenes y la aceptación por parte de los profesionales veterinarios son cuesones que deben abordarse [3]. Desde una perspecva éca, el desarrollo de estos sistemas debe regirse por principios que aseguren la privacidad de los datos y el uso responsable de la tecnología. Iniciavas como la Declaración de Montreal para un Desarrollo Responsable de la IA promueven la transparencia y la regulación adecuada en el avance de estas tecnologías [15]. En este estudio, se plantea la implementación y evaluación de un modelo de deep learning para la detección de fracturas óseas en perros mediante imágenes radiográficas, con el objevo de mejorar la precisión diagnósca en comparación con los métodos tradicionales de interpretación manual; reducir el empo de diagnósco, facilitando la toma de decisiones rápidas en entornos de alta demanda; y, minimizar los errores 2 of 6
Aplicación DEEP Learning en imágenes radiográficas / Armijos-Aguilar y cols. UNIVERSIDAD DEL ZULIA Serbiluz Sistema de Servicios Bibliotecarios y de Información Biblioteca Digital Repositorio Académico diagnóscos, evaluando métricas como falsos posivos y negavos. Se espera que la invesgación contribuya a la opmización de la prácca veterinaria, mejorando la eficiencia clínica y el cuidado de los pacientes. Además, se analizará la aplicabilidad y viabilidad del modelo en centros veterinarios, considerando su integración en el flujo de trabajo actual y su impacto en la carga laboral de los Veterinarios. MATERIALES Y MÉTODOS Este estudio experimental y comparavo fue diseñado para desarrollar y evaluar un modelo de deep learning basado en CNN, específicamente YOLOv5, con el objevo de diagnoscar imágenes radiográficas de perros según la presencia o ausencia de fracturas óseas. El enfoque incluyó la comparación del desempeño del modelo con la interpretación manual realizada por tres Veterinarios no especializados en radiología y un sujeto no veterinario asisdo por IA. La metodología se diseñó cuidadosamente para garanzar la rigurosidad cienfica y la aplicabilidad de los resultados en contextos clínicos reales. El conjunto de datos ulizado en este estudio comprendió un total de 18.740 imágenes radiográficas en formato JPEG converdas a parr de archivos DICOM, obtenidas de múlples fuentes digitales. Estas incluyeron 1.070 imágenes recopiladas de dos clínicas veterinarias, 4.083 de una base de datos preexistente de imágenes de radiograas humanas que fueron usadas para complementar el entrenamiento y el restante 13.587 imágenes fueron generadas mediante técnicas de aumento de datos post entrenamiento que proporcionaron datos representavos de casos reales complementando el volumen necesario para el entrenamiento del modelo. Se adoptaron criterios estrictos de inclusión y exclusión para asegurar la calidad del conjunto de datos. Solo se consideraron imágenes con diagnóscos confirmados de fracturas presentes o ausentes. Se excluyeron aquellas que presentaban baja calidad, artefactos visibles o lesiones no traumácas como tumores, con el objevo de evitar sesgos o resultados confusos durante el entrenamiento y la validación. El preprocesamiento de las imágenes fue una etapa esencial en este estudio, ya que garanzó la uniformidad de los datos y mejoró la eficiencia del modelo. Cada imagen fue redimensionada a un tamaño estándar de 640x640 píxeles y sus valores de píxeles fueron normalizados a un rango de 0 a 1 para opmizar el rendimiento del modelo. Para la base de datos ulizada en la presente invesgación se realizó un equetado previo de las imágenes, clasificándolas en dos grupos “con fractura y sin fractura” como se muestra en la FIG.1, para ello se ulizo la plataforma Supervisely [16]. FIGURA 1. Equetado de imágenes radiográficas sin fractura y con fractura. Fuente: El autor Además, se implementaron técnicas de aumento de datos para generar variaciones arficiales de las imágenes originales, lo que permió expandir el conjunto de datos y mejorar la robustez del modelo frente a variaciones en las condiciones de las imágenes. Estas técnicas incluyeron rotaciones aleatorias dentro de un rango de -15° a +15°, espejado horizontal, ajustes aleatorios de brillo y contraste, así como zoom con una variación de hasta el 20%. Este proceso aumentó la candad de datos disponibles lo que ayuda a evitar el sobreajuste, un problema común en redes neuronales cuando los datos son limitados. El preprocesamiento y la organización de los datos se llevaron a cabo ulizando Roboflow [17], una plataforma reconocida por su capacidad para gesonar grandes conjuntos de datos en proyectos de visión por computadora. Esta herramienta facilitó la automazación del preprocesamiento, permiendo un flujo de trabajo eficiente y un manejo ópmo de los datos. Además, Roboflow proporcionó una infraestructura adecuada para entrenar el modelo de clasificación binaria con arquitecturas preentrenadas, opmizando su rendimiento con arquitecturas preentrenadas, opmizando su rendimiento en condiciones de datos heterogéneos. El modelo desarrollado en este estudio se basó en YOLOv5, una red neuronal convolucional adaptada para la tarea específica de clasificación binaria. Este modelo ulizó una función de pérdida Binary Cross-Entropy, opmizada con el algoritmo Adam, que inició con una tasa de aprendizaje de 0,001. El entrenamiento se llevó a cabo durante un máximo de 50 épocas, con un tamaño de lote de 32 imágenes por iteración. Para evitar el sobreajuste, se implementó un mecanismo de detección ancipada o “early stopping”, el cual interrumpía el proceso si no se observaban mejoras significavas en el desempeño del modelo durante 10 épocas consecuvas. Para evaluar el rendimiento del modelo, se seleccionó un subconjunto de validación compuesto por 30 imágenes radiográficas, cuidadosamente seleccionadas de manera aleatoria y previamente clasificadas como “con fractura” o “sin fractura”. Cada parcipante evaluó las imágenes de forma individual, determinando la presencia o ausencia de fracturas. Además, se registró el empo empleado por cada evaluador en la clasificación de las imágenes. Los resultados del modelo se compararon con los diagnóscos manuales ulizando métricas estándar ampliamente aceptadas en la evaluación de modelos de aprendizaje automáco, como precisión, sensibilidad, especificidad, F1-Score y empo promedio de diagnósco. 3 of 6
Revista Cienfica, FCV-LUZ / Vol. XXXV UNIVERSIDAD DEL ZULIA Serbiluz Sistema de Servicios Bibliotecarios y de Información Biblioteca Digital Repositorio Académico El análisis de errores se centró en la idenficación y cuanficación de falsos posivos y falsos negavos. Los falsos posivos correspondieron a imágenes clasificadas erróneamente como “con fractura,” mientras que los falsos negavos representaron imágenes clasificadas incorrectamente como “sin fractura.” Este análisis permió evaluar de manera críca las limitaciones y fortalezas del modelo, así como idenficar áreas para futuras mejoras. La aplicabilidad clínica del modelo se evaluó considerando su capacidad para reducir significavamente el empo de diagnósco, mejorar la precisión diagnósca y ofrecer apoyo en entornos clínicos con recursos limitados. Aunque no fue necesario someter el estudio a un comité de éca, ya que las imágenes ulizadas eran anonimizadas y no involucraban procedimientos experimentales en animales vivos, se mantuvieron altos estándares écos en el manejo de los datos. Este enfoque asegura que los hallazgos del estudio sean relevantes tanto para la comunidad cienfica como para la prácca clínica veterinaria. RESULTADOS Y DISCUSIÓN El modelo alcanzó un desempeño destacado, como se resume en la TABLA I. Las métricas de precisión (83.3%) y especificidad (93.3%) fueron superiores a las de los tres evaluadores humanos (Veterinarios no especializados), cuyo desempeño osciló entre el 40% y el 70% en precisión. Estos resultados son coherentes con lo señalado por Rajpurkar et al., [11], quienes evidenciaron que las CNN son capaces de igualar o superar a especialistas en la clasificación de imágenes médicas. TABLA I La siguiente tabla muestra las métricas clave del rendimiento del modelo en comparación con evaluadores humanos Parcipante Precisión (%) Sensibilidad (%) Especificidad (%) F1-Score Tiempo (min:seg) Sujeto 1 40 53,3 26,7 0,46 9:18 Sujeto 2 70 86,7 53,3 0,77 11:45 Sujeto 3 66,7 66,7 66,7 0,67 7:16 Sujeto 4 83,3 73,3 93,3 0,78 5:49 Análisis de Precisión y Especificidad La especificidad elevada del modelo (93.3%) implica su capacidad para idenficar correctamente imágenes sin fracturas, minimizando falsos posivos. Este hallazgo es fundamental en la prácca clínica, ya que reduce intervenciones innecesarias que podrían derivar en costos adicionales o afectaciones al bienestar animal. Según McEvoy y Amigo [9], los sistemas basados en IA son parcularmente efecvos en reducir este po de errores, lo que refuerza su ulidad como herramienta complementaria en el diagnósco Veterinario. Sensibilidad y Balance Diagnósco Aunque el sujeto 2 mostró la mayor sensibilidad (86.7%), el modelo alcanzó un equilibrio notable entre sensibilidad y especificidad. Esto es crucial, ya que evita tanto la omisión de fracturas (falsos negavos) como la clasificación errónea de imágenes normales como patológicas (falsos posivos). Tal equilibrio es esencial para garanzar la confiabilidad diagnósca, como destacan Shen et al., [10] en el análisis de redes neuronales convolucionales aplicadas al diagnósco médico. Reducción de Tiempos de Diagnósco El empo promedio de clasificación del modelo (5:49 minutos) fue menor que el de los evaluadores humanos, quienes tardaron entre 7:16 y 11:45 minutos en evaluar las 30 imágenes. Esta eficiencia representa una mejora del 40% respecto al promedio humano, lo cual ene implicaciones directas en la carga laboral de las clínicas veterinarias. Lakhani y Sundaram, [13] ya habían destacado que las soluciones basadas en deep learning aumentan la precisión y opmizan la rapidez diagnósca en entornos clínicos con alta demanda. Los empos de cada sujeto pueden ser observados en la FIG. 2. FIGURA 2. Comparación de los empos de diagnósco entre los sujetos experimentales. Fuente: El autor. Comparación de errores diagnóscos El modelo mostró una incidencia reducida de falsos posivos y negavos en comparación con los evaluadores humanos. Gulshan et al., [18] enfazaron la importancia de minimizar estos errores para evitar retrasos en el tratamiento o procedimientos innecesarios. La capacidad del modelo para manejar ambos pos de errores resalta su robustez como herramienta diagnósca confiable. El modelo redujo falsos posivos y negavos frente a los evaluadores humanos, coherente con experiencias previas de visión por computador en animales de producción (implementaciones de YOLO) que evidencian transferibilidad a datos heterogéneos y escenarios reales [19]. Este desempeño se enmarca en la evolución de la IA y su adopción creciente en salud [20], sustentado por fundamentos de deep learning 4 of 6
Aplicación DEEP Learning en imágenes radiográficas / Armijos-Aguilar y cols. UNIVERSIDAD DEL ZULIA Serbiluz Sistema de Servicios Bibliotecarios y de Información Biblioteca Digital Repositorio Académico que explican ganancias en precisión y generalización con arquitecturas profundas [21], y es consistente con resultados clínicos análogos de nivel especialista reportados en imágenes médicas humanas [22]. Aplicabilidad clínica y limitaciones La parcipación de un sujeto no veterinario asisdo por IA destaca la facilidad de implementación del modelo en entornos con personal no especializado. Sin embargo, el estudio presenta algunas limitaciones: 1.Uso exclusivo de clasificación binaria: No se segmentaron áreas es- pecíficas en las imágenes, lo que podría limitar su aplicabilidad en casos complejos. 2.Restricción del dataset: Aunque se emplearon técnicas de aumento de datos, la base de datos ulizada podría beneficiarse de una ma- yor diversidad y representavidad. 3.Falta de revisión éca: Aunque el estudio ulizó datos retrospec- vos y anonimizados, una evaluación éca podría haber fortalecido su validez. Los resultados de este estudio refuerzan las observaciones previas de Appleby y Basran, [3] sobre el impacto posivo de la IA en la Medicina Veterinaria, especialmente en el diagnósco por imágenes. La capacidad del modelo para operar con datos heterogéneos y ofrecer resultados consistentes resalta su aplicabilidad en escenarios clínicos reales. Schmidhuber [14], señaló que los sistemas de IA basados en CNN pueden aprender patrones complejos, lo cual explica el éxito del modelo en este estudio. Este modelo basado en deep learning mejoró la precisión y la especificidad diagnósca y opmizó el empo de análisis, posicionándolo como una herramienta clave para modernizar el diagnósco radiográfico en medicina veterinaria. Esto refuerza la viabilidad de la inteligencia arficial como apoyo en el diagnosco de fracturas óseas en perros, con un impacto potencial en la eficiencia clínica. Para maximizar el impacto clínico del modelo, se recomienda incorporar técnicas de segmentación para idenficar áreas específicas de fracturas, tal como sugieren Shen et al. [10], Además, ampliar el dataset con imágenes de diversas razas y patologías óseas, como proponen McEvoy y Amigo, [9]. Finalmente es importante validar el modelo en clínicas veterinarias reales para evaluar su desempeño en entornos operavos y su aceptación por parte del personal. La facbilidad de uso por personal no especializado asisdo por IA exige salvaguardas écas y legales claras incluso con datos retrospecvos y anonimizados [23]. Para maximizar impacto, es pernente incorporar segmentación y explorar arquitecturas profundas para capturar patrones complejos en fracturas, reforzando la robustez del modelo observado en este estudio [24]; ello debe apoyarse en referencias anatómicas estandarizadas para equetas consistentes [25] y en evaluaciones comparavas con expertos que modelen incerdumbre y calibren el rendimiento de forma transparente [26]. CONCLUSIONES El presente estudio, con el modelo basado en YOLOv5 logró una precisión del 83.3%, mientras que sus oponentes veterinarios obtuvieron resultados inferiores. Esto corrobora que la implementación de la IA y el deep learning pueden mejorar en gran manera la eficiencia y eficacia en el diagnosco radiográfico de fracturas óseas en perros, cumpliendo con el objevo de la presente invesgación. El modelo mostró un balance ópmo entre precisión, sensibilidad (73.3%) y especificidad (93.3%), reduciendo tanto falsos posivos como falsos negavos en comparación con los diagnóscos manuales. Además, su empo promedio de clasificación por imagen fue considerablemente menor al de los veterinarios, opmizando la rapidez diagnósca. El desempeño del modelo fue adecuado, mientras que la precisión de los Veterinarios varió considerablemente (40%- 70%). Esto evidencia la capacidad del modelo para minimizar la variabilidad propia del diagnósco manual, confirmando su confiabilidad como herramienta de apoyo en entornos clínicos. El análisis de falsos posivos y falsos negavos mostró que el modelo presentó menos errores que los veterinarios, corroborando que el uso de deep learning puede mejorar la confiabilidad diagnósca y disminuir el riesgo de diagnóscos incorrectos. La capacidad del modelo para integrarse en el flujo de trabajo veterinario quedó demostrada al ser usado con éxito por un sujeto no veterinario asisdo por IA, logrando un desempeño superior al de los evaluadores humanos. Esto resalta el potencial del modelo para ser ulizado en clínicas veterinarias, donde podría complementar la labor de profesionales y mejorar la eficiencia del diagnósco, cumpliendo así el úlmo objevo específico. Recomendaciones A pesar de tener resultados posivos prometedores, se debe expandir el estudio con bases de datos más amplias y brindar mejoras al modelo para idenficar patrones más complejos presentes en las imágenes. Así también, la implementación del modelo en casos clínicos reales requerirá evaluar su desempeño e impacto en la prácca profesional. Conflicto de intereses Los autores declaran no tener ningún conflicto de intereses en la publicación de este manuscrito. REFERENCIAS BIBLIOGRÁFICAS [1] Couch JR. Arficial Intelligence: Past, Present and Future. J. SC Acad. Sci. [Internet]. 2023 [citado 08 Enero 2025]; 21(1):2. Disponible en: hps://goo.su/SYEdM [2] Anwar SM, Majid M, Qayyum A, Awais M, Alnowami M, Khan MK. Medical Image Analysis using Convoluonal Neural Networks: A Review. J. Med. Syst. [Internet]. 2018; 42(11):226. doi: hps://doi.org/gfghhd 5 of 6
Revista Cienfica, FCV-LUZ / Vol. XXXV UNIVERSIDAD DEL ZULIA Serbiluz Sistema de Servicios Bibliotecarios y de Información Biblioteca Digital Repositorio Académico [3] Appleby RB, Basran PS. Arficial intelligence in veterinary medicine. J. Am. Vet. Med. Assoc. [Internet]. 2022; 260(8):819–824. doi: hps://doi.org/p7f6 [4] Davenport T, Kalakota R. The potenal for arficial intelligence in healthcare. Future Healthc. J. 2019; 6(2):94–98. doi: hps://doi.org/ggf26q [5] Rajpurkar P, Irvin J, Zhu K, Yang B, Mehta H, Duan T, Ding D, Bagul A, Langlotz C, Shpanskaya K, Lungren MP, Ng AY. CheXNet: Radiologist-Level Pneumonia Detecon on Chest X-Rays with Deep Learning. Cornell University: Arxiv; 2018 [citado 08 Enero 2025]. doi: hps://doi.org/ g88dtm [6] Lubinus Badillo F, Rueda Hernández CA, Marconi Narváez B, Arias Trillos YE. Redes neuronales convolucionales: un modelo de Deep Learning en imágenes diagnóscas. Revisión de tema. Rev. Colomb. Radiol. 2021; 32(3):5591– 5599. doi: hps://doi.org/p7f7 [7] Mora-Tola MA, Carpio-Alemán FM, Mora-Tola JD, Román-Cárdenas FA. Characterizaon of fractures of the appendicular skeleton in dogs according to the AO classificaon. Polo Conoc. 2023 [citado 08 Enero 2025]; 8(3):2440–2457. Disponible en: hps://goo.su/4fgGIK6 [8] DeCamp CE, Johnston SA, Dejardin LM, Schaefer SL. Brinker, Piermaei and Flo’s Handbook of Small Animal Orthopedics and Fracture Repair. 5th ed. St. Louis: Saunders; 2016. [9] McEvoy FJ, Amigo JM. Using machine learning to classify image features from canine pelvic radiographs: evaluaon of paral least squares discriminant analysis and arficial neural network models. Vet. Radiol. Ultrasound. 2013; 54(2):122–126. doi: hps://doi.org/f4rr93 [10] Shen D, Wu G, Suk HI. Deep learning in medical image analysis. Annu. Rev. Biomed. Eng. 2017; 19(1):221–248. doi: hps://doi.org/gcgmb4 [11] Rajpurkar P, Irvin J, Ball RL, Zhu K, Yang B, Mehta H, Duan T, Ding D, Bagul A, Langlotz CP, Patel BN, Yeom KW, Shpanskaya K, Blankenberg FG, Seekins J, Amrhein TJ, Mong DA, Halabi SS, Zucker EJ, Ng AY, Lungren MP. Deep learning for chest radiograph diagnosis: a retrospecve comparison of the CheXNeXt algorithm to praccing radiologists. PLoS Med. 2018; 15(11):e1002686. doi: hps://doi.org/gfnkcv [12] Taha AA, Hanbury A. Metrics for evaluang 3D medical image segmentaon: analysis, selecon, and tool. BMC Med. Imaging. 2015; 15(1):29. doi: hps://doi.org/ gb343z [13] Lakhani P, Sundaram B. Deep learning at chest radiography: automated classificaon of pulmonary tuberculosis by using convoluonal neural networks. Radiology. 2017; 284(2):574–582. doi: hps://doi.org/ gbp274 [14] Schmidhuber J. Deep learning in neural networks: an overview. Neural Netw. 2015; 61:85–117. doi: hps:// doi.org/f6v78n [15] Nature Machine Intelligence. A prize for discoveries past, present and future. Nat. Mach. Intell. [Internet]. 2019; 1(5):201. doi: hps://doi.org/p7hf [16] Neer A, Noorzadeh S, Duchateau F, Abrao H, Desternes J, Peyras J, et al. Inial Results in the Automac Visual Recognion of Endometriosis Lesions by Arficial Intelligence During Laparoscopy: A Proof-of-Concept Study. J Minim Invasive Gynecol. 2025 Sep 3. Online. doi: hps://doi.org/10.1016/j.jmig.2025.08.027 [17] Kukartsev VV, Ageev RA, Borodulin AS, Ganmurov AP, Kleshko II. Deep learning for object detecon in images: development and evaluaon of the YOLOv8 model using Ultralycs and Roboflow libraries. In: Silhavy R, Silhavy P, editors. Soſtware Engineering Methods Design and Applicaon. CSOC 2024. Lecture Notes in Networks and Systems. Cham: Springer; 2024. p. 630. doi: hps://doi. org/p7hg [18] Gulshan V, Peng L, Coram M, Stumpe MC, Wu D, Narayanaswamy A, Venugopalan S, Widner K, Madams T, Cuadros J, Kim R, Raman R, C. Nelson P, Mega JL, Webster DR. Development and validaon of a deep learning algorithm for detecon of diabec renopathy in renal fundus photographs. JAMA. 2016; 316(22):2402-2410. doi: hps://doi.org/gcgk7d [19] Guarnido-Lopez P, Ramirez-Agudelo JF, Denimal E, Benaouda M. Programming and seng up the object detecon algorithm YOLO to determine feeding acvies of beef cale: A comparison between YOLOv8m and YOLOv10m. Animals. 2024; 14(19):2821. doi: hps://doi. org/p7hh [20] Abeliuk A, Guérrez C. Historia y evolución de la inteligencia arficial. Rev. Bits Cienc. 2021; 21:14-21. doi: hps://doi.org/p7hj [21] Bengio Y, LeCun Y, Hinton G. Deep learning for AI. Commun ACM. 2021; 64(7):58–65. doi:hps://doi.org/ gkx7tb [22] Esteva A, Kuprel B, Novoa RA, Ko J, Sweer SM, Blau HM, Thrun S. Dermatologist-level classificaon of skin cancer with deep neural networks. Nature. 2017; 542(7639):115–118. doi: hps://doi.org/bxwn [23] Gerke S, Minssen T, Cohen G. Ethical and legal challenges of arficial intelligence-driven healthcare. In: Bohr A, Memarzadeh K, editors. Arficial Intelligence in Healthcare. Amsterdam: Academic press; 2020. p. 295– 336. doi: hps://doi.org/gxww [24] He K, Zhang X, Ren S, Sun J. Deep residual learning for image recognion. In: Proceedings of the IEEE Conference on Computer Vision and Paern Recognion (CVPR); Las Vegas, NV, USA; 2016. p. 770–778. doi: hps://doi.org/ gdcn [25] Evans HE, de Lahunta A. Miller’s Anatomy of the Dog. 4th ed. St. Louis: Saunders. Can. Vet. J. 2012; 57(4):381. Available in: hps://goo.su/yiOz0 [26] Irvin J, Rajpurkar P, Ko M, Yu Y, Ciurea-Ilcus S, Chute C, Marklund H, Haghgoo B, Ball R, Shpanskaya K, Seekins J, Mong DA, Halabi SS, Sandberg JK, Jones R, Larson DB, Langlotz CP, Patel BN, Lungren MP, Ng AY. CheXpert: A large chest radiograph dataset with uncertainty labels and expert comparison. Proc. AAAI. Conf. Arf. Intell. 2019; 33(01):590–597. doi: hps://doi.org/ghkh8x 6 of 6