El próximo 2 y 7 de marzo estaré impartiendo un Taller de Imagen y Photoshop en la Facultad de Ciencias de Málaga. Explicaré los conceptos y herramientas fundamentales que te permitirán crear imágenes como la del cartel, revelar fotografías y entender como se codifican las imágenes en informática. Puedes reservar tu plaza en el siguiente enlace.
El análisis de los problemas bajo la lente de la teoría de grafos está suponiendo una revolución en casi todos los ámbitos de la cultura humana. Esto es algo que algunos se han aventurado a calificar como Networkism (Manuel Lima).
En el ámbito científico nos está permitiendo percibir patrones que antes pasaban desapercibidos ante nuestros ojos, como por ejemplo la evolución de un ecosistema o la aparición de comportamiento en base a la actividad de grupos de neuronas. Uno de los grandes de este campo es Barábasi el cual recientemente ha publicado un artículo sobre la capacidad de resiliencia de los sistemas complejos.
Hacía tiempo que le venía dando vueltas a la cabeza a la idea de hacer una página de facebook sobre el blog, et voilá. Ya podéis seguirme a través de la red de Zuckerberg. La principal motivación es publicar pequeñas noticias o vídeos que se vean rápidos en facebook, dejando así el blog para artículos más elaborados y completos.
“Porque es olvido lo que producirán [las letras] en las almas de quienes las aprendan, al descuidar la memoria, ya que, fiándose de lo escrito, llegarán al recuerdo desde fuera, a través de caracteres ajenos, no desde dentro, desde ellos mismos y por sí mismos. No es, pues, un fármaco de la memoria lo que has hallado, sino un simple recordatorio; apariencia de sabiduría es lo que proporcionas a tus alumnos, y no verdad”
Curioso fragmento tomado de Fedro, obra de Platón, dónde se hace referencia a la consecuencia que tendrá en las personas el utilizar la escritura como forma de almacenar la información. ¿No se estará dando hoy día una situación similar con otros métodos de guardar la información?
La Escuela de Doctorado de la UMA (Málaga) ha organizado el III Ciclo de Conferencias “Ciencia y Sociedad: El poder del conocimiento”. Las conferencias abrirán el debate sobre como el conocimiento proveniente de disciplinas como la biología sintética, la neurociencia o la inteligencia artificial, puede ser utilizado para mejorar las capacidades de los seres humanos.
22 de enero Salón de Actos de la Facultad de CC. de la Educación.
11.00 h. Dr. Francisco R. Villatoro
Departamento de Lenguajes y Ciencias de la Computación, E.T.S. Ingenieros Industriales, Universidad de Málaga. “La singularidad de Kurzweil: ¿El futuro de la inteligencia artificial?”
12.30 h. Dr. Anders Sandberg
Future of Humanity Institute, Oxford Martin School, Oxford University “Human enhancement – the technology, ethics and transhumanist perspective”.
29 de enero Aula Magna de la Facultad de CC. de la Comunicación y Turismo.
11.00 h. Dr. Antonio Diéguez Lucena
Catedrático de Lógica y Filosofía de la Ciencia, Departamento de Filosofía, Universidad de Málaga “La biología sintética y el imperativo de mejoramiento”
12.30 h. Dr. Salvador Martínez Pérez
Instituto de Neurociencias de Alicante (UMH-CSIC) “Desarrollo y plasticidad cerebral, como bases para entender el aprendizaje y la memoria”
El aprendizaje automático (Machine learning en inglés, ML) es el campo de la inteligencia artificial que busca generar algoritmos que puedan evolucionar y especializarse en función del conjunto de datos de entrada. En cristiano, básicamente pretende crear aplicaciones capaces de aprender y desarrollar comportamientos para los cuales no han sido programados. Dependiendo de si se conoce de antemano el comportamiento final hablaremos de aprendizaje automático supervisado o no supervisado.
En el supervisado, lo más normal es que se inicie este tipo de problemas con un gran conjunto de datos y un objetivo. El conjunto de datos será utilizado por la estrategia de ML para extraer un algoritmo que dé como resultado el objetivo. Un ejemplo clásico es la clasificación de correos en SPAM o No SPAM. Para esto se usa un conjunto de correos de entrenamiento con una clasificación correcta previamente conocida. Sobre este conjunto usaremos algoritmos de ML sobre unas variables específicas, como puede ser la frecuencia de palabras usadas en el contenido, para que nos extraiga un patrón diferenciador de las dos categorías. Si obtenemos un resultado aceptable el algoritmo resultante puede ser utilizado en correos de prueba con una condición desconocida y que nos devuelva si es SPAM o no. Aunque este caso es muy simple, su estructura básica subyace en muchas estrategias utilizadas hoy día independientemente del campo de aplicación.
Una de las estrategias más populares hace uso de los algoritmos evolutivos, los cuales pretenden simular como actúa la evolución biológica. Desde un punto de vista simple, podriamos decir que los organismos evolucionan en diferentes especies mediante cambios que permiten interactuar ante el medio de manera favorable, o como mínimo neutra, para su reproducción. Basándose en esta definición, estos algoritmos interaccionan con un entorno que influye en su dinámica futura, manteniendo aquellas variantes que se acercan poco a poco a un objetivo fijado. Además, para logar que éstas evolucionen, y no se queden repitiendo siempre la misma estrategia, se incorporan cambios aleatorios tras los cuales se vuelve a hacer una selección de aquellos con mejores resultados. Desde un punto de vista técnico podríamos hablar de un proceso de optimización en la obtención de un objetivo.
En el vídeo de arriba podemos ver una aplicación práctica, a la par que didáctica, de esta última estrategia. Para ello ha utilizado el videojuego Super Mario Bros y un algoritmo basado en redes neuronales artificiales (a las cuales ya dedicaré otro post) para que éste pudiera aprender a pasarse la misión el solito mediante el procedimiento ya explicado. Si alguien está interesado en saber más, en la descripción del vídeo hay mucha documentación e incluso el script utilizado en el mismo (mis dieses al autor por esto último :D).
La Inteligencia Artificial es una tecnología cada vez más presente en nuestro día a día. Su presencia nos pasa inadvertida, pero sus diferentes implementaciones sirven de base para un amplio abanico de aplicaciones que van desde el reconocimiento de pezones en facebook a la resolución de problemas ambiguos. En este capítulo de Principio de Incertidumbre, un más que recomendado programa de radio, Pedro Larrañaga nos habla de las novedades en este campo y qué implicaciones tendrán en nuestro futuro más cercano.
A falta queda en el programa el debate sobre la ética de intentar recrear inteligencias generalistas como la humana, es decir, capaces de solventar problemas de diferente tipo. Una pregunta interesante sería la de si para lograr este tipo de inteligencias es necesario dotar a este tipo de maquinas de conciencia o, si cambio, esta emergería como una consecuencia de esa capacidad. Y, en el caso de ser afirmativa la respuesta, ¿Deberían recibir el mismo tratamiento que las personas?, Si poseyéramos esa inteligencia, ¿Qué los diferenciaría de esclavos a las ordenes de un capataz? De ser superiores sus capacidades, ¿Deberían utilizarse libremente o se restringiría su uso en ciertos sectores como, por ejemplo, el militar?
Los seres humanos no podemos predecir correctamente aquellas dinámicas que no son lineales. Por ello nos sorprende el progreso de la tecnología la cual crece de manera exponencial. Es por ello que urge el afrontar y resolver estos dilemas éticos antes de que nos pille el toro. En consonancia con esto, varios pesos de la industria, como Bill Gates o Elon Musk, ya han dado la voz de alarma sobre la necesidad de un debate oficial que podría culminar con una legislación sobre el uso de la inteligencia artificial.
If P = NP, then the world would be a profoundly different place than we usually assume it to be. There would be no special value in ‘creative leaps’, no fundamental gap between solving a problem and recognizing the solution once it’s found. Everyone who could appreciate a symphony would be Mozart; everyone who could follow a step-by-step argument would be Gauss.
Scott Aaronson.
El problema «P vs. NP» es uno de los problemas matemáticos del milenio. La clave está en determinar que problemas son aquellos que pueden resolverse de manera eficiente con ayuda de los ordenadores y aquellos que no, si es que existen este tipo de problemas. Os recomiendo ver este vídeo si os interesa el campo. Y si no te interesa, cambia la palabra «problema» por aquello que tengas entre las manos en tu trabajo/estudio y ya veras como te interesará.