Marco teórico y aproximación jurídica al big data: algoritmos, inteligencia artificial y transformación digital
Autor | Jairo Becerra/Lorenzo Cotino Hueso/Ivonne Patricia León/Marco Emilio Sánchez Acevedo/Jheison Torres Ávila/John Velandia Vega |
Páginas | 39-63 |
MARCO TEÓRICO Y APROXIMACIÓN JURÍDICA
AL
BIG DATA
: ALGORITMOS, INTELIGENCIA
ARTIFICIAL Y TRANSFORMACIÓN DIGITAL1
*
Aproximación general al
big data
: premisas y cautelas
La expresión big data se debe al trabajo de Schönberger y Cukier (2013a).
En español se utiliza también esta expresión inglesa. El Parlamento Europeo
(2017) hace referencia a ‘macrodatos’, y no tanto a ‘datos masivos’:
Recopilación, análisis y acumulación constante de grandes cantidades de datos, in-
cluidos datos personales, procedentes de diferentes fuentes y objeto de un tratamiento
automatizado mediante algoritmos informáticos y avanzadas técnicas de tratamien-
macrodatos).
Se habla de las V (Gartner, 2012): volumen, variedad, velocidad y valor, a
las que se añaden, entre otras, la veracidad (Puyol, 2014, p. 488). Se hace refe-
rencia al carácter big —‘grande’ o ‘masivo’— de los datos para hacer alusión al
volumen, esto es, a cantidades de datos ingentes, de magnitud inabarcable a la
* Apartes de este capítulo de libro fueron presentados y publicados por el Dr. Lorenzo Cotino en la sesión del
Seminario de Derecho de la Universidad de Valencia, España; ponencia: “El Dret enfrontat las reptes del Big Data
i l’automatització de les decisions”, del 26 de octubre de 2016, que puede consultarse en esta vínculo: https://www.
uv.es/seminaridret/sesiones2017/bigdata/ponenciaCotino2016.pdf?
2
40
PÚBLICO 25
Derecho y big data
mente humana, como la grandeza del espacio. Tales datos masivos pueden tener
también la V por su variedad de fuentes y naturaleza; y se destaca asimismo la
gran velocidad en la gestión y actualización de los datos. Los datos a los que
se hace referencia pueden estar estructurados, no estructurados o parcialmente
estructurados; no obstante, más allá de la cantidad o estructura, se destaca con el
término big data elementos como la V del gran valor potencial presente y futuro;
además, es nota diferencial de los datos masivos que no pueden ser manipulados,
analizados, procesados con mecanismos o procesos tradicionales.
El gran reto de los datos masivos es la captación, gestión y tratamiento para
agregar valor a grandes volúmenes de datos poco utilizados o inaccesibles hasta
la fecha; todo ello, para aportar y descubrir un conocimiento hasta ahora oculto.
Boyd y Crawford (2011, p. 6), entre otros autores, subrayan que el big data no
utilizados para manipularlos y analizarlos, sino a un giro en el pensamiento com-
putacional y la investigación (Burkholder, 1992). Así como Ford cambió la forma
en que se hicieron coches —y luego se transformó la forma de trabajo—, el big
data va a cambiar toda la teoría social (Latour, 2009, p. 9) al automatizar tanto el
objeto como el procedimiento del conocimiento.
El big data-
cial cuando los sistemas computacionales son capaces de tratar, aprender, resol-
ver problemas y tomar decisiones a partir de los grandes datos, desde un cambio
de paradigma que automatiza tanto el objeto (los datos) como el procedimiento
del conocimiento (Boyd y Crawford, 2011). Se aplican algoritmos, redes neuro-
-
nos (Nils, 1980). En esta dirección, el Parlamento Europeo (2017) recuerda que
y comportamientos”. Según el Parlamento Europeo (2017), los algoritmos pue-
-
et al.), o bien, como “código software que procesa un conjunto
limitado de instrucciones”. Los algoritmos avanzados de aprendizaje automático
(advanced machine-learning algorithms) destacan por su capacidad de adaptarse
y aprender, y cabe recordar que los robots no precisan de una entidad física y,
Para continuar leyendo
Solicita tu prueba