Práctica de la Sesión N.° 6

Estas preguntas son para que marques y, cuando haces clic en la alternativa, veas la retroalimentación. Es un autoaprendizaje.

1. ¿Qué idea central se destacó sobre la inteligencia artificial en la clase?

Correcto, porque en clase se señaló que la inteligencia artificial puede amplificar capacidades, pero también errores, inequidades y sesgos ya existentes.
Incorrecto, porque en clase se explicó que la inteligencia artificial puede reproducir errores y desigualdades si no se usa con criterios éticos y supervisión.
Incorrecto, porque en clase se precisó que la responsabilidad y el juicio final siguen siendo humanos.

2. ¿Qué puede ocurrir si se usan sistemas de IA sin criterios éticos ni verificación humana?

Incorrecto, porque en clase se indicó que el uso sin control puede producir errores graves y afectar procedimientos.
Correcto, porque en clase se señaló que la falta de ética y verificación puede comprometer la validez del proceso y la confianza ciudadana.
Incorrecto, porque en clase se explicó que los riesgos siguen existiendo y requieren manejo responsable.

3. ¿Qué son las alucinaciones en inteligencia artificial?

Incorrecto, porque en clase se explicó que las alucinaciones no son verdades seguras, sino errores presentados como si fueran ciertos.
Incorrecto, porque en clase se indicó que la alucinación no consiste en resumir, sino en inventar o afirmar algo inexistente.
Correcto, porque la profesora explicó que la IA puede producir información falsa con mucha seguridad y apariencia plausible.

4. ¿Cuál es un ejemplo grave de alucinación jurídica?

Correcto, porque en clase se señaló que uno de los mayores riesgos es que el sistema fabrique citas, fallos o argumentos que no existen realmente.
Incorrecto, porque esa situación no corresponde a una alucinación jurídica.
Incorrecto, porque en clase se mostró que eso puede ser una función útil de apoyo y no una alucinación.

5. ¿Qué son los sesgos algorítmicos?

Incorrecto, porque en clase se explicó que los sesgos algorítmicos son fallas sistemáticas del sistema y no simples gustos del usuario.
Correcto, porque en clase se indicó que los sesgos pueden generar tratos desiguales y discriminatorios.
Incorrecto, porque en clase se precisó que el sesgo algorítmico no es una simple diferencia de criterio, sino una distorsión injustificada.

6. ¿De dónde pueden provenir los sesgos en un sistema de IA?

Incorrecto, porque en clase se explicó que el problema no está solo en la forma del documento, sino en los datos y el diseño del sistema.
Incorrecto, porque el tamaño o la potencia del equipo no es la causa principal del sesgo.
Correcto, porque en clase se señaló que los sesgos pueden surgir tanto por datos sesgados como por decisiones tomadas en el diseño del modelo.

7. ¿Qué exige la clase como regla básica al usar IA en el trabajo jurídico?

Correcto, porque en clase se remarcó que la IA debe usarse con control humano, transparencia y revisión constante.
Incorrecto, porque en clase se explicó que esa práctica puede generar errores, nulidades y afectación de derechos.
Incorrecto, porque en clase se señaló que la tecnología puede adoptarse con criterio y responsabilidad.

8. En materia de confidencialidad, ¿qué representa la información del cliente para el abogado?

Incorrecto, porque en clase se explicó que la información del cliente tiene valor jurídico, ético y profesional.
Correcto, porque en clase se señaló que la información del cliente no es cualquier dato, sino un bien que debe protegerse.
Incorrecto, porque en clase se precisó que la confidencialidad exige límites y cuidado en el tratamiento de la información.

9. ¿Qué criterio internacional se destacó respecto de la privacidad en sistemas de IA?

Correcto, porque en clase se explicó que la privacidad debe protegerse desde el diseño y durante todo el funcionamiento del sistema.
Incorrecto, porque en clase se indicó que la protección debe darse desde el inicio y no como una corrección posterior.
Incorrecto, porque en clase se precisó que la velocidad no justifica vulnerar derechos ni confidencialidad.

10. ¿Quién mantiene la responsabilidad final cuando se usa IA en el trabajo jurídico?

Incorrecto, porque en clase se explicó que la herramienta no asume responsabilidad profesional.
Correcto, porque en clase se remarcó que la responsabilidad sigue siendo humana, aunque se use apoyo tecnológico.
Incorrecto, porque en clase se indicó que la responsabilidad profesional corresponde a quien usa y presenta el trabajo jurídico.