1.- Son datos que contienen una mayor variedad y que se presentan en volúmenes crecientes y a mayor velocidad
a) Big Data
b) Bases de Datos no Relacionales
c) Almacén de datos
a) Big Data
1.- ¿De qué se encarga la Capa por lote?
a) Almacenar el conjunto de datos maestro que es inmutable y crece constantemente.
b) Almacenar el conjunto de datos maestro que es inmutable y crece constantemente, crear vistas desde este conjunto de datos.
c) Almacenar Intentar resolver la elevada latencia generando vistas en tiempo real con los incrementos de nuevos datos.
b) Almacenar el conjunto de datos maestro que es inmutable y crece constantemente, crear vistas desde este conjunto de datos
1.- ¿Cómo se carga un archivo CSV en Pandas?
a) pd = df.read_csv ("data.csv")
b) df = pd.read_csv ('datos.csv')
c) df = pd.read_csv (´data.csv´)
d) pd = read_csv ("data.csv")
b) df = pd.read_csv ('datos.csv')
1.- Etapa que no siempre es muy necesaria en Map Reducir
a) Map
b) Reducir
c) Shuffle
d) Todas son necesarias siempre
c) Shuffle
1.- ¿Qué significa HDFS?
a) Hadoop Disfrute For System
b) Hadoop Dristributed File System
c) Hadoop Distribut For System
d) Hadoop Distribution File Software
b) Hadoop Dristributed File System
2.- ¿Cuál de las siguientes opciones dirías que es uno de los principales usos del Big Data?
a) Monitorear el cambio constante de algún´fenómeno en tiempo real
b) Encontrar correlaciones entre múltiples patrones vistos en los datos.
c) Hacer más rápido el análisis de datos y toma de decisiones.
c) Hacer más rápido el análisis de datos y toma de decisiones
2.- ¿Qué tecnologías se pueden utilizar en la Capa de batch layer?
a) Apache Spark Core
b) Transmisión de Apache Spark
c) Apache Hive
a) Apache Spark Core
¿Qué está haciendo la siguiente línea de código?
a = [1, 7, 2]
MYVAR = pd.Series (a, index = ["x", "y", "z"])
a) Está nombrando sus propias etiquetas
b) ESTA devolviendo el valor
c) Está seleccionando solo algunos de los argumentos
d) Está autorizado la etiqueta
a) Está nombrando sus propias etiquetas
2.- ¿Qué herramienta funciona como alternativa en caso de que YARN falle?
a) HDFS
b) Zookeeper
c) Map Task
d) Kafka
b) Zookeeper
2.- La arquitectura de HDFS es de tipo:
a) Maestro
b) Padre
c) Maestro – esclavo
d) Clave – Valor
c) Maestro – esclavo
3.- ¿Cuáles son las V del Big Data?
a) Volumen, Velocidad, Variedad, Verdad, Viabilidad, Visualización, Valor
b Volumen, Velocidad, Variedad, Veracidad, Volatilidad, Visualización, Valor
c) Volumen, Velocidad, Variedad, Veracidad, Viabilidad, Visualización, Valor
c) Volumen, Velocidad, Variedad, Veracidad, Viabilidad, Visualización, Valor
3.- ¿Qué tecnologías se pueden utilizar en la Capa Proveedora Serving Layer?
a) Apache Samza
b) Apache Hive, Druin, Impala
c) Tormenta Apache
b) Apache Hive, Druin, Impala
3 ¿Qué tipo de grafica representa la siguiente línea de código?
df.plot (kind = 'scatter', x = 'Duración', y = 'Calories')
a) Gráficos de líneas
b) Histograma
c) Diagramas de barra vertical.
d) Diagrama de dispersión
d) Diagrama de dispersión
3.- ¿Con qué podemos resolver los problemas de tráfico en MapReduce?
a) MapTask
b) MapReduce Framework
c) Reduce
d) Ninguna de las anteriores
b) MapReduce Framework
3.- HDFS tiene dos principales componentes:
a) Clave - NameNode
b) Metadatos - DataNode
c) Cliente - DataNode
d) NameNode - DataNode
d) NameNode - DataNode
4.- ¿Los mayores problemas y retos para las empresas con respecto al Big Data están en?
a) La falta de presupuesto y el volumen de datos generados.
b) La falta de tecnología y habilidades técnicas.
c) La falta de tecnología y presupuesto
b) La falta de tecnología y habilidades técnicas
4.- ¿En cuántos componentes se basa la Arquitectura zeta?
a) 7
b) 6
c) 4
a) 7
4.- ¿Cómo se escribe el código para borrar los duplicados en las filas?
a) df.drop_duplicates (inplace = True)
b) df.duplicates (inplace = True)
c) df.drop_duplicates (inplace = 'True')
d) (df.drop_duplicates ())
a) df.drop_duplicates (inplace = True)
4.- ¿Cuál de las siguientes opciones asigna pares clave/valor de entrada a un conjunto de pares clave/valor intermedios?
a) Map
b) Reduce
c) Tanto Map como Reduce
d) Ninguna de las anteriores
a) Map
4.- Comando que enlista los ficheros con su tamaño en formato legible
a) Hdfs dfs -ls/
b) Hdfs dfs -ls -h/
c) Hdfs dfs -ls -R/
d) Hdfs dfs -ls /file*
b) Hdfs dfs -ls -h/
5.- Si bien existen muchas capacidades de análisis con algoritmos y hardware de Big Data, existen sus limitaciones. De los siguientes, ¿Cuál consideras que es un mito respecto al uso de esta práctica?
a) Reemplazar el análisis científico a pequeña escala a través de correlaciones.
b) Se deben sustituir sistemas de almacenamiento basados en SQL.
c) Incremento masivo de necesidad de datawarehouses.
b) Se deben sustituir sistemas de almacenamiento basados en SQL.
5.- ¿De qué se encarga la Capa Proveedora?
a) Se encarga de indexar y exponer las vistas (de sólo lectura) para que puedan ser consultadas.
b) Se encarga del resultado de la ejecución de la capa batch
c) Se encarga de almacenar el conjunto de datos maestro que es inmutable y crece constantemente.
a) Se encarga de indexar y exponer las vistas (de sólo lectura) para que puedan ser consultadas
¿Para qué sirve el head ()?
a) Devuelve los encabezados y un número específico de filas, comenzando desde arriba
b) Devuelve los encabezados y un número específico de filas, comenzando desde la parte inferior
c) Brinda más información sobre el conjunto de datos
d) Calcula los títulos valores para una columna
a) Devuelve los encabezados y un número específico de filas, comenzando desde arriba
5.- ¿Cuál de las siguientes interfaces implementan las teclas de la salida de shuffle y sort?
a) Escribble
b) WriteableComparable
c) Configurable
d) ComparableEscribible
b) WriteableComparable
5.- De acuerdo al ecosistema de hadoop ¿En qué parte se encuentra a HDFS?
a) Arriba
b) En medio
c) A los lados
d) Abajo
d) Abajo