Ir al contenido principal

Spark para conectar con bases de datos vía JDBC

 En mis primeras andadas en lo referente al paquete sparklyr, para este tema en especial, lo que se pretende es usar la librería de JDBC para que este sea el medio de conexión y ese conjunto de datos (dataset) que se extrae, sea manipulado por Spark con todas las ventajas que tiene el paquete como ya lo he descrito en los artículos anteriores.

Me base en tres posts que vienen la final de este artículo.

En primera instancia utilice el conector JDBC para Oracle (ojdbc7.jar) y pues funcionó sin problemas, vamos con la fórmula.

1- Se cargan las librerías.

library("sparklyr")

library("RJDBC")

2- Se carga la configuración de Spark, para después agregar la ruta y nombre del conector JDBC.

## Spark

config <- spark_config()

## Tell config location of oracle jar

config[["sparklyr.jars.default"]] <- "ruta/ojdbc7.jar"



3 - Se crea la conexión, indicándole nuestra variable de configuración.

connspark <- spark_connect(master="local", config = config)


4 - Se usa la función de Spark (spark_read_jdbc) para extraer los datos de la base de datos de Oracle, en este caso las defunciones del 2018.

 dataspark <- spark_read_jdbc(connspark,"table", options = list( url="jdbc:oracle:thin:@//urlserverdb:puerto/servicio", driver="oracle.jdbc.driver.OracleDriver",user="userdb",password="passuserdb",dbtable="TDEFUN18"), memory=FALSE)

Donde el puerto por default para Oracle es el 1521.

Y con esto tenemos un conjunto de datos que representa una tabla de una base de datos, sin embargo al estar redactando el documento, me di cuenta que la columna SEXO y EDO_CIVIL vienen como valores lógicos, entonces me preocupó el hecho de que no respetara el tipo de datos de la tabla origen ya que en Oracle esta definida como numérico. Muestra el código y resultados.


 Lo que se me ocurrió es que en vez de una tabla, lo que traemos es una consulta, a pesar de que en las ligas que consulté había ejemplos, el que se describía era para MySQL, entonces viendo otro ejemplo usando Python fue como deduje la siguiente solución.


 Estuvimos intentando varias opciones hasta que vi que la forma de plasmar la consulta usando un gran paréntesis y fue así como Spark aceptó una consulta en lugar de un nombre de una tabla en el parámetro dbtable

Para resolver el problema del tipo de datos antes de pasar el nombre de la columna lo convertimos a numérico y fue como ahora si Spark recibe una columna de tipo numérico.

Es importante notar que estamos usando otro paquete llamado dplyr que digamos que es el SQL de R y que según me comentaba mi compañero Memo es recomendable su uso para la explotación de datos en R, y será uno de los siguientes artículos de este blog.

Otra cosa importante a considerar es el tiempo de carga ya que en nuestra área se utilizan archivos de gran tamaño y según lo investigado Spark es la opción para este caso.

Sin más por el momento concluimos este artículo. Nos seguimos leyendo.

Atte.

Miguel Araujo

Referencias.

Stackoverflow

https://stackoverflow.com/questions/49221229/use-sparklyr-with-oracle-database-connection

A guide to retrieval and processing of data from relational database systems using Apache Spark and JDBC with R and sparklyr

https://jozef.io/r925-spark-jdbc-loading-data/

DZone Database Zone

https://dzone.com/articles/read-data-from-oracle-database-with-apache-spark


Comentarios

Entradas populares de este blog

Posit Cloud - como instalar librerías de Python en el entorno de R

 Ahora que estamos tomando una maestría buscando que siga "girando la ardilla" por unos años más en la materia de "Cómputo Estadístico" nos ha sugerido usar la versión gratuita de Posit en la nube. En su página definen este producto como "es una solución basada en la nube que permite acceder al poderoso conjunto de herramientas de ciencia de datos de Posit directamente en el navegador web  - sin requerir instalación o configuraciones complejas". Para los usuarios que han utilizado Posit RStudio en primera instancia verán el entorno muy similar a Posit Cloud con algunas pequeñas diferencias, para empezar necesitamos un usuario o contraseña aunque es posible autenticarse usando alguna cuenta existente como es el caso de Google. Con el tiempo y trabajando en desarrollo de software, vamos entendiendo que quizás el nombre queda muy grande a los pequeños ejemplos, pero es muy recomendable el uso de proyectos siempre. A continuación vemos el entorno Posit Clo...

La librería openxlsx

En el Instituto se utiliza como herramienta de trabajo institucional la suite de ofimática MS Office que ofrece un precio asequible aunque lo actual en el mundo del software es el esquema de suscripciones el que casi se ha convertido en el común de las empresas gigantes de las tecnologías de la información. Es por ello que si bien en un principio que se usaban las bibliotecas XLConnectJars   y XLConnect, al tratar de bajarlas e instalarlas se descubrió - en aquel entonces - que estaban obsoletas. Es por ello que se volteo a la que revisaremos superficialmente en este artículo. Lo primero como siempre es descargar la librería openxlsx que se puede hacer desde el mismo Posit RStudio. Vamos a recrear un cuadro existente en el sitio del Instituto que debido a la crisis sanitaria iniciada en 2020 cobra una relevancia muy importante: "Las principales causas de muerte" que de forma anecdótica   fue la primera aplicación en la cual me pidieron que participara, un programa escri...

R 4.5 vs R 4.4.3

Cuando comparto con mis colegas, sobre todo de trabajo que es mi nicho profesional, acerca de porque tener las últimas versiones del software y que replico sobre todo por dos vertientes: mejor desempeño y funcionalidad del software, y la seguridad que pareciera que las empresas de software recomiendan los mismo o algo cercano a esto. Por ejemplo, veamos lo que nos dice Oracle (dueño de Java) acerca de su versión 8 del Java SE.   En la tabla de la página de Oracle podemos observar las fechas en los cuales ya no habrá soporte para ciertas versiones de Java. En este breve artículo veremos en el caso del interprete de R como se desempeña en una versión con respecto a la más reciente. Los puestos de trabajo que se registran por los patrones en el IMSS ha sido una cifra que muestra el avance o retroceso de como se encuentra el empleo en nuestro país, en este caso diremos que en el sector formal. Los microdatos oscilan arriba de los 20 millones y para su procesamiento es necesario o divi...