Breve resumen Sesión 1.1 ISKO

0 views
Skip to first unread message

Juanjo Boté

unread,
Jul 12, 2019, 6:16:19 AM7/12/19
to ISKO2019bcn. Debate "Recuperación de Info." (RI) Sesiones 1.1, 2.1 y 3.1
1a ponencia - Técnicas y usos en la clasificación automática de imágenes

Se plantean cuestiones al respecto de una base de patrones en la clasificacion automática de imágenes. 
Se argumenta que hay bases de datos sobre patrones de conocimiento, texturas, paredes, suelos, pero que también los sistemas son sistemas de entrenamiento dónde hay 3 o 4 técnicas diferentes.También se indica que en estos trabajos se centran en la parte técnica y no en la semántica ni en su relación. A veces sólo consiste en poner imágenes o no ponerlas.

También se debatido al respecto de si hay software de pago o de libre acceso. No hay software según el conocimiento de los autores y si que se han encontrado con algoritmos que luego se reutlitzan.

2a ponencia - Uso do modelo POLE para recuperaçao da informaçao investigativa policial por meio de grafos

Los programas que relacionan los grafos lo han desarrollado internamiente porque las licencias son muy caras. También se intenta reutilizar softare de bajo coste.
La base que se tiene desde la Policía para este proyecto es muy limitada y por eso partir de esa base sólo se limita a cuatro puntos. No se crean ontologias y se hace forma automática.

Además el automatismo para relacionar personas parte de un código único similar al Documento Nacional de Identidad. Sin embargo, para relacionar personas con otros actos delictivos se emplean la característica de relleno de los datos como palabras clave, frecuencia, etc. Es decir el sistema analiza varias frecuencias, un método que se puede ampliar a cualquier tipo de seguimiento.

Hay un total de 24 policias que orientan a los investigadores y cada investigador reliza una labor distinta. Hay que tener en cuenta también que hay datos no estructurados como Big data. Es por esto que hay 4 puntos básicos y se intenta que la introducción de datos en el sistema se haga mediante un lenguaje controlado.

Uno de los problemas/inconvenientes que tiene el sistema, como pasa en otras organzaciones es que las fichas de entrada se rellenan con un montón de información y alguna no es relevante. Lo importante es un resumen automatizado que genera el vocabulario controlado a vocabulario relevante.

3a ponencia - Generación automática de palabras clave para monitorizar dominios en redes sociales

Se plantea la pregunta de si se ha tenido otras lenguas. Sólo se emplea el españoly la solución pasaría por la traduccion término a término de un tesauro que están construyendo. Sin embargo, todavía no se pueden evitar los tesauros; es un problema adicional. Con los sinónimos, en el departamento tienen una tecnología hecha que les ayudas, además de un corrector de palabras.

Disponen de algoritmos que dan detalles del accidentes y han pasado del 65% al 85% de aciertos en el sistema.

Además, la semila de creación del vocabulario nace del periódico no de twitter.

Finalmente se plantea como cuestión general que técnicas tendrían mayor desarrollo en el futuro.
Todavía no se dispone de una opinión firme pero se podría apostar por data mining y las redes neuronales.

También es cierto que hay mucha tecnología que es antigua como serían los grafos así como otras técnicas, pero que ahora se está trabajando especialmente en la visualización de la información.
Ademas también está el deep-learning del cuál poca gente se fía. Los investigadores son poco receptivos porque es difícil tener un control de calidad.




Reply all
Reply to author
Forward
0 new messages