Archivos de la categoría R

Taller: Documentos científicos y técnicos de alta calidad: más allá de wysiwyg

noWar

¿Qué es esto?

Presentaremos una metodología sencilla que proporciona documentos de calidad: tipográfica y estructurados. El método, relativamente sencillo, deja al ordenador y sus programas las tareas más rutinarias:

  • gestión de citas y referencias bibliográficas,
  • numeración de tablas y figuras,
  • salidas a distintos formatos (pdf, epub, web, word,. . . )
  • útil para documento cortos, trabajos organizados por capítulos, presentaciones, . . .

¿A quién va dirigido?

A los alumnos de cualquier titulación de la Facultad de Biología, pero puede participar cualquier miembro de la misma. Este taller está destinado preferentemente a alumnos de cuarto, tercer, segundo y primer curso (por ese orden). ¿Cuándo? De cuatro a seis de la tarde la fecha la seleccionas tu: 27 Octubre, 10 ó 15 Noviembre.

Sigue leyendo

Seminario SAE: Consistencia interna en cuestionarios

corrplotMañana (viernes 14/oct) tendrá lugar el en el aula del SACE (12h) el seminario sobre “Consistencia interna en cuestionarios “, que dará Elvira Ferre Jaén, matemática estadística de este servicio.

En la exposición se repasaran diversa técnicas para medir consistencia interna y correlación en cuestionarios.

Actualización: Aquí os dejamos la presentación correlacion-consistencia-interna.pdf

Seminario SAE: El paquete Tables

alvarox Hoy ha tenido lugar el seminario sobre “El paquete tables de R”, que ha dado Álvaro Hernández Vicente. Que facilita mucho la creación de tablas con muchas categorías, cuidando el aspecto, genial para incluir en nuestros informes automáticos de grandes conjuntos de datos.

Os dejamos aquí la presentación en pdf. Paquete-tables-pres.pdf

Seminario: Visualización y análisis de escalas Likert

Ant J. Perán en el aula del edificio SACE del SAI

Ant José Peran en el aula del edificio SACE del SAI

El pasado viernes 30 de septiembre tuvo lugar en el Edificio SACE, el seminario “Visualización y análisis de escalas Likert”, presentado por nuestro compañero Antonio José Perán.

Esperamos que sea el primero de una saga de pequeños seminarios sobre paquetes de R y técnicas estadísticas que consideremos interesantes. Las iremos anunciando con más antelación que esta en esta web.

Os dejamos aquí la presentación en pdf: Visualizacion-y-analisis-de-escalas-Likert.pdf

Paquetes para aprendizaje automático en R

El pasado 6 de junio se publicaba en R-bloggers una entrada titulada What are the Best Machine Learning Packages in R? En ella el autor hacía una lista con los paquetes que él considera más importantes para machine learning en R (y que puede hacer que algunos opten por iniciarse por este software).

La lista incluye los paquetes:

  • mice: Multivariate Imputation by Chained Equations. Para completar los valores perdidos o NA de nuestra base de datos.
  • rpart: Recursive Partitioning and Regression Trees. Para realizar árboles de clasificación y regresión.
  • party: A Laboratory for Recursive Partytioning. También sirve para realizar modelos basados en árboles de decisión.
  • caret: Classification And REgression Training. Con este paquete se pretende tener un marco común para utilizar las demás técnicas de Machine learning.
  • randomForest: Breiman and Cutler’s Random Forests for Classification and Regression. Para realizar bosques aleatorios.
  • nnet: Feed-Forward Neural Networks and Multinomial Log-Linear Models. Para realizar redes neuronales.
  • e1071: Misc Functions of the Department of Statistics, Probability Theory Group (Formerly: E1071), TU Wien. Entre otros nos permite realizar modelos de máquinas de soporte de vectores, transformaciones de Fourier, etc.
  • kernlab: Kernel-Based Machine Learning Lab. Implementa algoritmos basados en métodos de Kernel.

En la entrada se puede ver más información y ejemplos de cada paquete.

Matemáticas y Machine Learning

Algunas personas cuando oyen hablar de Machine Learning –o aprendizaje automático– comentan que les gustaría aprender pero que no saben si será muy difícil o si se necesitan muchas matemáticas.

Es cierto que para el desarrollo de las técnicas y los algoritmos se utilizan bastantes matemáticas –podemos hacernos una idea con la entrada de blog The Mathematics of Machine Learning— pero tampoco es que haya que tener un conocimiento tan profundo de las “entrañas” para aplicar algo de Machine Learning.

Nosotros, personalmente, estamos más de acuerdo con la entrada The real prerequisite for machine learning isn’t math, it’s data analysis del blog Sharp Sight Labs donde se afirma que

For beginning practitioners (i.e., hackers, coders, software engineers, and people working as data scientists in business and industry) you don’t need to know that much calculus, linear algebra, or other college-level math to get things done.

But you absolutely need to to know data analysis.

Entendiendo data analysis como: obtención y limpieza de los datos, análisis exploratorio o visualización de los datos.

Así que, para los que quieran empezar en esto del análisis de datos y del Machine Learning aquí os dejamos un par de entradas del blog anterior que sirven como introducción.

R supera a SAS en el uso escolar

Una buena forma de analizar el uso de los distintos paquetes de software estadístico es analizar su aparición en artículos escolares. Basándonos en ello, tenemos que durante los últimos 15 años SPSS ha sido el paquete más dominante, y sigue siendolo a finales de 2015, seguramente debido a su equilibrio entre potencia y facilidad de uso. La novedad está en que por primera vez, R se encuentra en el segundo puesto con más de la mitad de artículos, quedando SAS relegado a un tercer lugar.

Estos datos son útiles para analizar la cuota de mercado, pero si queremos ver cómo el uso de los paquetes está cambiando, lo ideal es analizar la tendencia de crecimiento en los dos últimos años para cada uno de los paquetes de análisis de datos. Podemos ver en rojo, aquellos paquetes “calientes” cuyo uso está creciendo, y en azul aquellos que se “están enfriando”.

Observamos que Python es aquel con mayor crecimiento. El segundo y tercer puesto es para los paquetes de código abierto KNIME y RapidMiner, respectivamente. R está en el cuarto lugar, y teniendo en cuenta su segundo lugar en cuota de mercado global, está en una posición envidiable. En el otro extremo de la escala están SPSS y SAS, ambos de los cuales redujeron su uso un 25% o más.

Si analizamos esta tendencia a largo plazo (de 1995 a 2015) observamos que SPSS tiene una clara ventaja, pero ahora se puede ver que su dominio alcanzó su punto máximo en 2008 y que su uso está en fuerte descenso. SAS nunca llegó a nivel de dominio de SPSS, y también alcanzó su punto máximo alrededor de 2008. Esto se equilibra ligeramente con el aumento en el uso del resto de software en general y de R en particular.

Quitando del gráfico las curvas de SAS y SPSS, podemos ver que el crecimiento en el uso de R es bastante rápido y se está alejando de la manada. Si las tendencias actuales continúan, R cruzará SPSS para convertirse en el software #1 para el uso de datos ciencia académica a finales de 2017.

Para dejar aún más claro este punto, repetimos el gráfico anterior aplicando escala logarítmica en el eje y. Esto reduce proporcionalmente los paquetes más populares, que nos permite ver más claro que el uso de R ha pasado al de SAS, y que el uso de Stata se está cerca de hacerlo.

Léase la noticia completa en https://www.r-bloggers.com/r-passes-sas-in-scholarly-use-finally/

Buenas noticias: IBM crea una plataforma de cursos online gratuitos sobre Big Data

En los tiempos que corren es innegable que el conocimiento de las técnicas estadísticas que engloban la disciplina conocida como Big Data, se ha convertido en una herramienta indispensable para la gran mayoría de analistas de datos de la actualidad. La hiper-conectividad del siglo XXI y los grandes avances en materia tecnológica de estos últimos veinte años hacen que la sociedad se esté involucrando, voluntaria o involuntariamente, en una generación continua de datos que están esperando para ser analizados.

Cada vez más, plataformas o empresas propensas a recabar grandes volúmenes de datos, ven necesario disponer de una sección dedicada a aplicar técnicas de Big Data a la información obtenida en pos de un próspero desarrollo. Ejemplos de esto pueden hallarse en ámbitos como el de la sanidad, el transporte, o las redes sociales.

Quizá por este u otros motivos IBM haya decidido subirse al carro del Big Data presentando “Big Data University”, un sitio web educacional que ofrece cursos gratuitos sobre Big Data y bases de datos. Lo más interesante de estos cursos es que incluyen laboratorios prácticos que puede realizar en la nube y que cuenta con una pequeña prueba que si superas recibes un certificado.

Otra de las ventaja de BigDataUniversity.com es que se trata de un sitio manejado por la comunidad de IBMers, que contribuyen voluntariamente al desarrollo de los cursos y a la mejora del sitio web.

R4U…. Introducción al uso de R en entornos universitarios

R44U

Comienza el curso “Introducción al uso de R en entornos universitarios” al que nosotros denominamos R4U

Este curso plantea un desafío aproximar el uso de R, un lenguaje, a un colectivo diverso como es el del “personal” de la universidad. Es un colectivo diverso en cualquiera de sus dimensiones, la marca es la heterogeneidad tanto en el PDI como en el PAS. Sin embargo, más allá del propio lenguaje está la metodología de trabajo, la gestión de la información, la automatización de procedimientos y tanto la optimización en la gestión del tiempo, como la de los resultados de la comunicación.

Veremos como R forma parte de un sistema de trabajo más amplio que exige ciertos cambios en los modus operandi y una formación continua, este esfuerzo proporciona resultado de distinta naturaleza y plantea preguntas personales relevantes, para conseguir las respuestas vamos a proporcionar elementos de juicio.

¿Qué esperamos del curso?

Estamos seguros de que muchas son las preguntas que los participantes en el taller se plantean y pueden ir desde lo más simple hasta cuestiones mucho más avanzadas ¿Qué es R? ¿R sólo lo usan los estadísticos? ¿Sabiendo ya manejar el programa estadístico X podre cambiarme a R fácilmente? ¿Cuánto cuesta aprender a utilizarlo? ¿Está orientado a un campo del conocimiento específico? ¿Tengo que aprender mucho e invertir mucho tiempo? ¿Hay diferentes niveles de “aprendizaje”? ¿Me compensa el esfuerzo de aprender para el rendimiento que obtendré en mi trabajo? ¿Cómo puedo hacer el análisis estadístico X y que significan sus resultados?

Realizaremos una serie de actividades que nos proporcionaran argumentos para responder a estas y otras preguntas, así, veremos:

  • como utilizar el lenguaje R para resolver problemas simples que nos afectan en el quehacer cotidiano.
  • Como se puede utilizar con fluidez la terminal y manejar la interfaz básica de R con muy poco esfuerzo.
  • Estudiaremos como aprovechar las características los principales elementos de R y su entrono, así como el fundamento de la sintaxis de R.
  • Abordaremos el desafío de elaborar procedimientos básicos de trabajo documentados y reproducibles con R.

Obviamente, el nivel del experiencia previa y las expectativas de uso para cada uno de los distintos participantes puede ser muy distinta, por ello, vamos a empezar desde cero, los más experimentados pueden saltar aquellas propuestas de lectura o actividades que sugerimos en los materiales de trabajo; pero nadie puede “saltarse” las tareas propuestas.

Estamos a vuestra disposición… 00RTeam

EIDUM, EDE01: Creación, manejo y explotación de datos espaciales

paqui1Comienza el curso de EIDUM: Creación, manejo y explotación de datos espaciales”. Consiste en tres sesiones, y hay tres grupos con diferente horario (horario de tarde). Se imparte en el aula Bisbita de la facultad de Biología.

Destinatarios

Alumnos de doctorado con conocimientos básicos de SIG (esencialmente los recogidos por el documento del Instituto Geográfico Nacional Conceptos cartográficos ) y con conocimientos de R, tanto los gestión de datos como en los de representación gráfica, puede participar en este curso para aprovechar el potencial de R en la gestión y la representación de datos espaciales y complementar este conocimiento con el uso de un programa de desktop mapping potente como es Quantum GIS.

Competencias

paqui2

  • Ser capaz de combinar información espacial procedente de distintas fuentes o formatos
  • Ser capaz de preparar datos espaciales propios y representarlos adecuadamente
  • Ser capaz de independizar los datos del software empleado para su procesamiento, análisis o representación

Contenidos

  1. Visualización de datos cartográficos (Qgis)
  2. Reproyecciones (gdal y ogr)
  3. Captura de datos cartográficos de Internet (openlayers y otros)
  4. Introducción a la elaboración de mapas con R. Gestión de información ráster y vectorial
  5. Diseño de impresión de mapas (Qgis y R)

Resultados de aprendizaje

  • Poder visualizar mapas propios en pantalla o en papel documentación cartográfica personalizada
  • Poder utilizar la información procedente de servidores cartográficos y otras fuentes
  • Poder realizar cálculos básicos con la información espacial para la obtención de mapas propios
  • Manejar adecuadamente los sistemas de proyección y poder reproyectar convenientemente la cartografía disponible
  • Preparar la información para generar mapas de calidad destinados a la impresión

Evaluación

Para la superación del curso se exigirá:

  • la asistencia a las sesiones presenciales obligatorias
  • la cumplimentación del cuestionario de satisfacción del curso
  • la realización y entrega de las tareas requeridas, tal como se indica a continuación

El curso es semipresencial, y al trabajo en las sesiones presenciales ha de sumarse el realizado por los alumnos siguiendo las indicaciones que se detallan en el aula virtual; estas se inician antes de las sesiones presenciales.

En todas las sesiones presenciales se realizarán dos controles, tipo test, de unos diez minutos de duración:

  1. Al inicio, donde se evaluará la actividad del alumno con los materiales puestos a su disposición en el aula virtual. La actividad será seguida además por las herramientas de monitorización del AV.

  2. Al final, en el que se evaluará los avances logrados durante la sesión de clase.

Además, existe una tarea del curso que se presentará en el aula virtual con fecha límite de una semana tras la realización de la última sesión presencial. Esta tarea será evaluada por dos compañeros en la propia aula virtual con una semana de tiempo a contar desde la entrega de la tarea.