Preparacion para las pruebas de estado.
Preparacion para las pruebas de estado.
Aquí tienes una propuesta con 25 preguntas desafiantes sobre tecnología y sociedad organizadas en 5 bloques temáticos, cada uno con un párrafo introductorio y 5 preguntas de análisis crítico. lee el documento inicial para que logres entender el contexto de las preguntas.
justifica tu respuesta y realiza una reflexion de esta.
La inteligencia artificial (IA) ha dejado de ser una promesa futurista para convertirse en una realidad omnipresente que impacta múltiples dimensiones de la vida humana. Desde algoritmos que diagnostican enfermedades con precisión milimétrica hasta vehículos autónomos que recorren ciudades sin intervención humana, la IA se ha infiltrado en sectores clave como la medicina, el transporte, la seguridad y el comercio. Sin embargo, este avance acelerado no está exento de interrogantes éticos, sociales y legales que desafían nuestras estructuras tradicionales de pensamiento y normatividad.
En el ámbito laboral, por ejemplo, la IA está siendo utilizada en procesos de selección de personal. Si bien puede aumentar la eficiencia al filtrar grandes volúmenes de currículos, también puede replicar y amplificar prejuicios presentes en los datos de entrenamiento. Un sistema que históricamente ha sido alimentado con datos de contrataciones en los que se privilegió a candidatos hombres, tenderá a perpetuar esa desigualdad, afectando la equidad del proceso. Este fenómeno, conocido como sesgo algorítmico, obliga a revisar no solo los algoritmos, sino también las estructuras sociales que los originan.
Asimismo, la introducción de vehículos autónomos ha generado una nueva serie de dilemas morales. ¿Qué debe priorizar un coche sin conductor ante una situación de accidente inminente? ¿Proteger la vida del pasajero a toda costa o minimizar el daño total posible, incluso si eso implica sacrificar al ocupante? Este tipo de situaciones, que antes estaban reservadas al azar o al juicio humano, ahora deben ser programadas con antelación, basadas en principios éticos complejos como el utilitarismo, la deontología o la justicia distributiva.
El impacto de la IA en el empleo también es significativo. Muchos trabajos rutinarios o mecánicos están siendo sustituidos por máquinas inteligentes, lo que obliga a replantear los sistemas educativos. No se trata de resistir la tecnología, sino de preparar a las futuras generaciones con habilidades como el pensamiento crítico, la creatividad, la alfabetización digital y la resolución de problemas complejos. Es decir, competencias que las máquinas aún no pueden replicar con eficacia.
Además, el diseño de estos sistemas tecnológicos revela otro punto crítico: la falta de diversidad en los equipos de desarrollo. La mayoría de los sistemas de reconocimiento facial, por ejemplo, presentan mayores tasas de error al identificar rostros de personas con piel oscura, lo cual no solo evidencia una falla técnica, sino también una carencia ética y representativa en los procesos de creación tecnológica.
En este contexto, la regulación global de la IA se presenta como un desafío monumental. Las naciones no logran ponerse de acuerdo sobre un marco legal común, debido a la tensión entre intereses económicos, comerciales y la necesidad de establecer estándares éticos universales. Mientras algunos países apuestan por una innovación sin restricciones, otros exigen controles más rigurosos para evitar vulneraciones a derechos fundamentales como la privacidad, la autonomía y la igualdad de oportunidades.
Paralelamente, las redes sociales han transformado nuestra forma de comunicarnos y socializar. No obstante, su uso intensivo, especialmente entre adolescentes, ha sido vinculado con un aumento en casos de ansiedad, depresión y trastornos de autoestima. Esto se debe, en parte, a que las plataformas están diseñadas para maximizar el tiempo de permanencia del usuario, apelando a mecanismos psicológicos de recompensa inmediata. Cada “like” o “comentario” actúa como un estímulo dopaminérgico que refuerza conductas adictivas, alterando la forma en que los jóvenes valoran su imagen y su autoestima.
Además, los algoritmos de estas plataformas crean lo que se conoce como burbujas informativas: entornos digitales donde solo se muestra contenido que coincide con las creencias y preferencias previas del usuario. Esto reduce la exposición a puntos de vista diversos y promueve la polarización social, afectando la capacidad de diálogo democrático.
La sobrecarga de información también genera lo que se denomina “fatiga de decisión”. Al estar constantemente expuestos a múltiples opciones, los usuarios pierden capacidad para evaluar racionalmente y se vuelven más impulsivos. Este fenómeno tiene implicaciones serias en la formación de criterios y en la toma de decisiones cotidianas, especialmente en poblaciones en desarrollo cognitivo, como los adolescentes.
Cuando la inteligencia artificial se combina con redes sociales, los dilemas éticos se intensifican. Algunos algoritmos son diseñados para detectar vulnerabilidades emocionales y explotarlas con fines comerciales o políticos, lo que plantea preguntas sobre manipulación, autonomía y responsabilidad. ¿Hasta qué punto es legítimo influir en las decisiones de los usuarios mediante técnicas automatizadas que explotan sus debilidades psicológicas?
Por otro lado, la brecha digital sigue siendo uno de los principales factores de desigualdad en la era tecnológica. Mientras los jóvenes urbanos acceden a plataformas de educación en línea, muchos de sus pares en zonas rurales carecen de conectividad básica. Esta brecha de acceso material impide que todos los estudiantes puedan competir en igualdad de condiciones y agrava las inequidades existentes en el sistema educativo y laboral.
En los adultos mayores, la falta de habilidades digitales limita el acceso a servicios esenciales, desde trámites gubernamentales hasta atención en salud. En este contexto, las estrategias más efectivas para reducir la brecha no consisten en regalar dispositivos, sino en promover talleres de alfabetización digital con enfoque práctico, respetuoso y centrado en la autonomía del aprendiz.
El impacto de la brecha digital en el empleo es igualmente preocupante. En la actualidad, cerca del 70% de las vacantes laborales exigen competencias digitales básicas. Sin acceso a internet y sin formación adecuada, millones de personas quedan excluidas del mercado laboral contemporáneo. En muchos países, el crecimiento económico no se traduce automáticamente en inclusión tecnológica, lo que revela una priorización del desarrollo industrial sobre la conectividad rural.
Sin embargo, existen alternativas viables. El uso de tecnologías sostenibles, como el green computing, puede reducir costos energéticos y facilitar el acceso a zonas remotas. Al mismo tiempo, se impulsa una economía más responsable con el medio ambiente y más equitativa en términos de acceso a la información y a las oportunidades.
En cuanto a la relación entre tecnología y cambio climático, el panorama es ambivalente. Por un lado, tecnologías como los paneles solares, los autos eléctricos y las plataformas de monitoreo ambiental ayudan a mitigar los efectos del calentamiento global. Por otro lado, prácticas como la minería de criptomonedas consumen cantidades astronómicas de energía, muchas veces proveniente de fuentes no renovables.
La fabricación de dispositivos electrónicos, especialmente smartphones, también deja una considerable huella de carbono, debido a la extracción intensiva de minerales raros y a procesos industriales contaminantes. Además, la obsolescencia programada –la práctica de diseñar productos con una vida útil limitada– multiplica los residuos electrónicos y acelera el consumo de recursos naturales.
El “greenwashing”, o lavado verde, complica aún más la situación. Algunas empresas aseguran ser sostenibles mientras siguen prácticas altamente contaminantes. La neutralidad de carbono, por ejemplo, se convierte en un engaño cuando se basa únicamente en la compra de bonos de compensación sin reducir emisiones reales. La solución pasa por una auditoría independiente, un ciclo de vida transparente de los productos y una economía circular basada en la reparación, el reuso y el reciclaje.
Finalmente, en la era digital, la privacidad y la protección de datos personales se han convertido en un derecho fundamental. Desde apps de salud que monitorizan constantes vitales hasta plataformas educativas que registran el comportamiento del estudiante, la cantidad de información recopilada sobre los ciudadanos es inmensa. Cuando esta información se vende a terceros, como aseguradoras, sin consentimiento explícito, se vulneran derechos básicos relacionados con la autonomía, la dignidad y la protección legal.
El uso de tecnologías como el reconocimiento facial en espacios escolares plantea nuevos interrogantes: ¿se justifica el control absoluto en nombre de la seguridad? ¿Estamos normalizando la vigilancia en etapas tempranas de la vida, sin ofrecer mecanismos de transparencia y control ciudadano? Estas prácticas pueden derivar en la erosión paulatina del derecho a la privacidad, especialmente en contextos donde las legislaciones son débiles o inexistentes.
En Europa, el Reglamento General de Protección de Datos (RGPD) establece que las empresas deben obtener un consentimiento claro y permitir al usuario borrar su información si así lo desea. Esta regulación es un ejemplo de cómo se puede proteger la privacidad sin frenar la innovación tecnológica. Sin embargo, su aplicación desigual a nivel global deja a muchos usuarios desprotegidos frente a abusos y prácticas invasivas.
Incluso en el uso de internet cotidiano, prácticas como las “cookies de seguimiento” permiten a las empresas registrar patrones de navegación y construir perfiles detallados para dirigir publicidad personalizada. Esta economía de la atención, basada en el monitoreo constante, plantea preguntas sobre el consentimiento informado y la libertad de elección.
Cuando los gobiernos utilizan redes sociales para monitorear protestas o movimientos sociales, la vigilancia deja de ser una herramienta de seguridad para convertirse en un mecanismo de control social. Esto puede tener efectos nocivos sobre la libertad de expresión, el derecho a la protesta y la participación democrática. La línea entre protección y represión se vuelve cada vez más difusa, y el rol de la ciudadanía crítica se hace indispensable para preservar los valores democráticos en la era digital.
Frente a este complejo escenario, es urgente que los estudiantes desarrollen una visión crítica, informada y ética sobre el uso de la tecnología. No se trata solo de aprender a usar herramientas digitales, sino de entender sus implicaciones, cuestionar sus lógicas y participar activamente en la construcción de un futuro más justo, inclusivo y sustentable.
La inteligencia artificial (IA) está transformando sectores como la medicina, el transporte y la seguridad. Sin embargo, su uso plantea dilemas éticos: ¿quién es responsable si un vehículo autónomo causa un accidente? ¿Cómo evitar que algoritmos repliquen sesgos raciales o de género? Además, la IA amenaza empleos tradicionales, lo que exige replantear sistemas educativos y laborales. Su desarrollo acelerado contrasta con la falta de marcos legales globales, generando debates sobre privacidad, autonomía humana y control tecnológico.
Preguntas:
Si un algoritmo de IA usado en reclutamiento laboral favorece inconscientemente a candidatos hombres, ¿cuál es la causa más probable?
a) Fallo técnico en el hardware.
b) Datos de entrenamiento históricamente sesgados.
c) Interferencia de hackers.
d) Limitaciones de la nube.
¿Qué principio ético priorizaría si un vehículo autónomo debe elegir entre atropellar a un peatón o poner en riesgo al pasajero?
a) Utilidad social (menor daño posible).
b) Protección absoluta del comprador.
c) Decisiones aleatorias.
d) Intervención humana obligatoria.
La sustitución de empleos por IA exige principalmente:
a) Prohibir robots en sectores clave.
b) Impulsar educación en pensamiento crítico y creatividad.
c) Reducir la innovación tecnológica.
d) Aumentar la jornada laboral.
Un sistema de reconocimiento facial con mayor error en rostros oscuros evidencia:
a) Falta de diversidad en equipos de desarrollo.
b) Limitaciones de las cámaras.
c) Conspiración política.
d) Alto costo de la tecnología.
¿Por qué es complejo regular la IA globalmente?
a) Los países priorizan intereses económicos sobre éticos.
b) No existen expertos en el tema.
c) La IA es inmune a leyes.
d) Solo afecta a naciones pobres.
Las redes sociales han redefinido la comunicación, pero estudios vinculan su uso excesivo con ansiedad, depresión y baja autoestima, especialmente en adolescentes. Los algoritmos promueven contenido polarizante para maximizar engagement, creando burbujas informativas. Además, la exposición constante a ideales de belleza o éxito irreales distorsiona la percepción de la realidad. ¿Cómo equilibrar los beneficios de la conectividad con la protección de la salud mental? ¿Deben los gobiernos regular el diseño adictivo de estas plataformas?
Preguntas:
6. El “like” como recompensa inmediata en redes sociales afecta principalmente:
a) La velocidad de internet.
b) Sistemas dopaminérgicos cerebrales.
c) Costos de servidores.
d) Privacidad de datos.
Respuesta: b) Estimula mecanismos similares a las adicciones.
Las “burbujas informativas” se generan porque los algoritmos:
a) Eliminan noticias falsas.
b) Priorizan contenido alineado con las creencias del usuario.
c) Promueven diversidad de opiniones.
d) Funcionan solo con texto.
Respuesta: b) Buscan maximizar el tiempo de uso mediante confirmación de sesgos.
Una política efectiva para reducir el impacto negativo en adolescentes sería:
a) Prohibir todas las redes sociales.
b) Educación en alfabetización digital y autorregulación.
c) Aumentar la publicidad.
d) Eliminar opciones de bloqueo.
9: El fenómeno de la "fatiga de decisión" en usuarios de redes sociales, exacerbado por la sobrecarga de información y opciones, se manifiesta principalmente en:
a) Una disminución de la agudeza visual.
b) El deterioro de la capacidad para tomar decisiones racionales y la impulsividad.
c) Un aumento de la producción de endorfinas.
d) La hipertrofia del lóbulo frontal.
10: La intersección entre la inteligencia artificial (IA) y las redes sociales plantea desafíos éticos significativos, especialmente en lo que respeta a la manipulación del comportamiento. ¿Cuál de los siguientes escenarios representa un dilema ético complejo?
a) El uso de IA para filtrar contenido inapropiado.
b) La implementación de chatbots para atención al cliente.
c) El desarrollo de algoritmos de IA que predicen y explotan las vulnerabilidades psicológicas de los usuarios para influir en sus decisiones.
d) La utilización de IA para generar subtítulos automáticos en videos.
La brecha digital se refiere a la desigualdad en el acceso a tecnologías como internet, dispositivos inteligentes o educación en habilidades digitales. Mientras el 95% de los jóvenes en ciudades usan plataformas educativas en línea, solo el 35% en zonas rurales tienen conexión estable. Esto profundiza desigualdades económicas y limita oportunidades laborales en la era digital. Factores como costos de infraestructura, falta de políticas públicas o analfabetismo tecnológico en adultos agravan el problema. ¿Cómo garantizar acceso equitativo sin caer en soluciones paternalistas? ¿Es responsabilidad de los estados o de empresas privadas cerrar esta brecha?
Preguntas:
11. Un niño en una zona rural sin internet intenta acceder a clases virtuales. ¿Qué barrera enfrenta?
a) Exceso de oferta educativa.
b) Brecha digital de acceso material.
c) Alto rendimiento académico.
d) Dominio de programación.
Para reducir la brecha digital en adultos mayores, la mejor estrategia es:
a) Regalar smartphones de última generación.
b) Talleres de alfabetización digital con enfoque práctico.
c) Limitar el uso de cajeros automáticos.
d) Eliminar servicios bancarios en línea.
¿Por qué la brecha digital afecta la empleabilidad?
a) Los trabajos manuales desaparecieron.
b) El 70% de las vacantes exigen competencias digitales básicas.
c) Las empresas rechazan a personas sin redes sociales.
d) La automatización solo beneficia a zonas rurales.
Un país con alto PIB pero baja conectividad rural evidencia:
a) Priorización de desarrollo industrial sobre inclusión tecnológica.
b) Ausencia de empresas tecnológicas.
c) Exceso de regulaciones ambientales.
d) Escasez de dispositivos móviles.
El "green computing" (tecnología sostenible) podría ayudar a cerrar la brecha digital porque:
a) Reduce costos energéticos de servidores, facilitando acceso en zonas remotas.
b) Promueve el uso exclusivo de papel.
c) Limita el acceso a internet para ahorrar recursos.
d) Depende de combustibles fósiles.
La tecnología es una aliada y una amenaza para el clima. Por un lado, paneles solares o vehículos eléctricos reducen emisiones. Por otro, la minería de criptomonedas consume más energía que países enteros, y la obsolescencia programada genera toneladas de basura electrónica tóxica. Además, el "greenwashing" (publicidad engañosa sobre sostenibilidad) confunde a los consumidores. ¿Cómo equilibrar innovación con preservación ambiental? ¿Deben penalizarse empresas que no reciclen componentes? La respuesta requiere analizar ciclos de vida completos de los productos y priorizar energías renovables en la industria tech.
Preguntas:
16. La huella de carbono de un smartphone se concentra principalmente en:
a) Su uso diario para llamadas.
b) La extracción de minerales raros y su fabricación.
c) El empaque de cartón reciclable.
d) Los mensajes de texto.
Si una empresa anuncia "neutralidad de carbono" pero compra bonos de carbono sin reducir emisiones, es un caso de:
a) Economía circular.
b) Greenwashing.
c) Innovación disruptiva.
d) Compliance ambiental.
¿Por qué la minería de Bitcoin es controversial ambientalmente?
a) Usa energía 100% renovable.
b) Requiere gran potencia de cómputo, asociada a combustibles fósiles.
c) Reduce el consumo eléctrico global.
d) Sustituye la necesidad de bancos.
La obsolescencia programada contribuye al cambio climático porque:
a) Aumenta la frecuencia de compra de dispositivos, elevando residuos.
b) Reduce el uso de plásticos.
c) Promueve la reparación comunitaria.
d) Mejora la durabilidad de las baterías.
Una solución realista para reducir residuos electrónicos es:
a) Incentivar la economía circular (reparar, reusar, reciclar).
b) Prohibir todos los dispositivos móviles.
c) Enterrar basura tecnológica en zonas pobres.
d) Usar solo tecnología de los años 90.
Redes sociales, apps de salud y ciudades inteligentes recopilan datos personales: ubicación, hábitos de consumo e incluso expresiones faciales. Gobiernos usan esto para vigilancia masiva, argumentando seguridad nacional. Sin embargo, el riesgo de hackeos, discriminación algorítmica o venta de datos a terceros es alto. La Unión Europea regula esto con el RGPD, exigiendo transparencia y consentimiento. ¿Dónde está el límite entre seguridad y libertad? ¿Es ético que una escuela use reconocimiento facial para controlar asistencia? El debate implica derechos humanos, transparencia y el papel de la ciudadanía en la era digital.
Preguntas:
21. Si una app de fitness vende datos de rutinas de usuarios a aseguradoras, ¿qué derecho se viola?
a) Libertad de expresión.
b) Propiedad intelectual.
c) Privacidad y protección de datos.
d) Acceso a la cultura.
El uso de reconocimiento facial en escuelas podría llevar a:
a) Mejor rendimiento académico.
b) Normalización de la vigilancia y erosión de la privacidad infantil.
c) Reducción de costos en lápices.
d) Eliminación de tareas escolares.
Las "cookies de seguimiento" en páginas web sirven principalmente para:
a) Bloquear anuncios publicitarios.
b) Rastrear el comportamiento del usuario y personalizar anuncios.
c) Mejorar la velocidad de navegación.
d) Proteger contra virus.
Según el RGPD (Reglamento Europeo de Protección de Datos), las empresas deben:
a) Ocultar cómo usan los datos de usuarios.
b) Pedir consentimiento claro y permitir borrar datos.
c) Vender información sin restricciones.
d) Eliminar toda publicidad en línea.
Un gobierno que vigila redes sociales para identificar protestas sociales está:
a) Fomentando la libertad de expresión.
b) Equilibrando seguridad y privacidad.
c) Potencialmente reprimiendo disidencia y derechos civiles.
d) Reduciendo el uso de internet.