- Mordiendo Bytes
- Posts
- 😋🤔 IA: ¿Transparencia en Gigantes Tech? Aprende la Verdad
😋🤔 IA: ¿Transparencia en Gigantes Tech? Aprende la Verdad
Sumérgete en el debate de transparencia de la IA con Google y Meta, y descubre cómo afecta tu mundo digital...
¡Hola, amantes del píxel 🤖 y el pastel 🍰 !
Bienvenidos a nuestra cita culinaria con la inteligencia artificial!
Hoy, destapamos el “cacerolazo” de transparencia de grandes empresas como Google, Open AI, Meta etc., y te mostramos si realmente sirven un platillo transparente y delicioso. Además, Toju Duke nos prepara un maridaje reflexivo, recordándonos que, al igual que una buena receta, la IA necesita una pizca de diversidad y una dosis equilibrada de ética para ser verdaderamente beneficiosa. ¡Prepárate para saborear estos insights.
¡Esperamos que traigas hambre de conocimiento! 🍔
🍽️ Menú del día
👀 Somos curiosos: ¿Qué herramienta de inteligencia artificial quisieras aprender a manejar como todo un mago de la cocina?
🥘 Descubre qué empresas de IA, como Google, Open IA, Meta, etc., cumplen con el índice de transparencia
🥘 ¡Ojo con la Inteligencia Artificial! Toju Duke nos cuenta por qué los robots aún necesitan aprender de la diversidad y la ética
🤤 Bocados de noticias IA: DeepMind evalúa riesgos sociales y éticos de la IA generativa; DALL·E 3 llega a ChatGPT Plus y Enterprise con innovaciones y seguridad; la complejidad de comprender cómo “piensa” la IA; ¿qué reglas establecerías si pudieras controlar una IA?; China establece criterios detallados para evaluar la seguridad de la IA generativa; avances en la decodificación de imágenes desde la actividad cerebral; y líderes tecnológicos debaten sobre el potencial transformador de la IA en WSJ Tech Live 2023
🧂🍅 Ingredientes que te abrirán el apetito: Con estas herramientas crea y edita videos de forma fácil y gratuita; optimiza y embellece tus presentaciones de diapositivas; y crea podcast cautivadores de forma automática
😂 Microsoft creó a Tay, una IA que aprendió de Twitter y en un día pasó de bebé digital a adolescente problemático tuiteando locuras. ¡Qué crecimiento tan acelerado!
Tiempo de lectura: 4 min 42 seg
🍩🧀 ¿Dulce o salado? Queremos conocer tu gustoSabemos que el mundo de la IA es vasto y misterioso. ¿Qué herramienta de Inteligencia Artificial (IA) quisieras aprender a manejar como todo un mago de la cocina? |
Iniciar Sesión o Suscríbete para participar en las encuestas. |
🥘 Plato fuerte
Descubre qué empresas de IA, como Google, OpenAI, Meta, etc., cumplen con el índice de transparencia
Un nuevo índice evalúa la transparencia de 10 empresas de modelos básicos y encuentra que tienen deficiencias.
Herramienta: DALL·E 3. Prompt: Ilustración que muestra un informe o documento con el título “Índice de Transparencia”. En la portada del informe, hay logos de empresas como Google, OpenAI y Meta, con gráficos circulares que indican sus niveles de transparencia. Algunos gráficos están completos, mientras que otros muestran áreas vacías, simbolizando las deficiencias en la transparencia. El informe está sobre una mesa con una lupa y notas, en un ambiente de oficina.
Rishi Bommasani, líder de la Sociedad en el Centro de Investigación de Modelos Básicos (CRFM) de Stanford HAI, señala que las empresas de modelos básicos como ChatGPT, Claude 2, Llama2, etc; están siendo cada vez menos transparentes. Por ejemplo, OpenAI, que lleva la palabra "abierto" en su nombre, ha declarado claramente que no será transparente en la mayoría de los aspectos de su modelo principal, GPT-4.
Importancia de la transparencia
La falta de transparencia ha sido un problema en la industria tecnológica durante mucho tiempo. La falta de claridad en la publicidad y la fijación de precios en internet, los patrones oscuros que engañan a los usuarios en compras desconocidas y otros problemas de transparencia han llevado a un ecosistema de desinformación en las redes sociales.
La falta de transparencia también dificulta que otras empresas sepan si pueden construir aplicaciones de manera segura basadas en modelos básicos comerciales; para que los académicos confíen en los modelos fundamentales comerciales para la investigación; para que los responsables de políticas diseñen políticas significativas para controlar esta tecnología poderosa; y para que los consumidores comprendan las limitaciones del modelo o busquen reparación por daños causados.
Evaluación de la transparencia
Para evaluar la transparencia, Bommasani y el director de CRFM, Percy Liang, reunieron a un equipo multidisciplinario de Stanford, MIT y Princeton para diseñar un sistema de puntuación llamado Índice de Transparencia de Modelos Fundamentales (FMTI). El FMTI evalúa 100 aspectos diferentes de la transparencia, desde cómo una empresa construye un modelo fundamental, cómo funciona y cómo se utiliza aguas abajo.
Resultados del índice
Cuando el equipo calificó a 10 importantes empresas de modelos fundamentales utilizando su índice de 100 puntos, encontraron mucho espacio para mejorar. Las puntuaciones más altas, que oscilaron entre 47 y 54, no son motivo de celebración, mientras que la puntuación más baja alcanza los 12. Esto indica claramente cómo se comparan estas empresas entre sí y se espera que las motive a mejorar su transparencia.
Fuente: 2023 Foundational Model Transparency Index. Standford University.
El impacto potencial del Índice de Transparencia (FMTI)
El FMTI podría guiar a los responsables de políticas hacia una regulación efectiva de los modelos fundamentales. Para muchos legisladores, la transparencia es una prioridad política importante y el FMTI proporciona datos valiosos para la toma de decisiones.
En resumen, el Índice de Transparencia de Modelos Fundamentales pone de manifiesto la falta de transparencia en la industria de la inteligencia artificial y destaca la necesidad de medidas regulatorias y cambios en las prácticas de las empresas.
Fuente: HAI - Standford University
¡Ojo con la IA! Toju Duke nos cuenta por qué los robots aún necesitan aprender de la diversidad y la ética
Herramienta: DALL·E 3. Prompt: Imagen hiperrealista de 8k que capta un momento en una ciudad moderna. Una pared domina la escena con puertas tecnológicas masivas que dicen 'AI'. Un grupo diverso de individuos, desde niños hasta ancianos, representando diversas razas, culturas y condiciones, se encuentra frente a las puertas, mirando con interés y anticipación. La luz natural ilumina cada detalle, desde las texturas de la ropa hasta los reflejos en los edificios cercanos.
Toju Duke, exdirectora de Responsabilidad en IA de Google, conversó con EL PAÍS sobre la ética en la Inteligencia Artificial (IA) y cómo esta tecnología puede generar injusticias.
IA responsable y ética: Toju Duke enfatiza que la ética y la IA deben ser compatibles. La IA responsable sigue un marco que se centra en cuestiones como la equidad, la transparencia, la privacidad, la seguridad y la protección de los derechos humanos. Existe una forma de implementar la IA de manera ética y responsable.
Discriminación algorítmica: Toju Duke argumenta que la discriminación algorítmica ya es un problema social importante. Las tecnologías de IA pueden amplificar injusticias sistémicas existentes en la sociedad, como la falta de representación de género o raza en los algoritmos. Esta amplificación se vuelve más pronunciada con la IA generativa.
Casos de discriminación algorítmica actuales: Uno de los ejemplos que resaltó fue el uso de sistemas automáticos de reconocimiento facial en Estados Unidos, que han llevado a casos de detención errónea, principalmente de personas afrodescendientes. También mencionó un caso en el que la Apple Card otorgó límites de crédito más bajos a mujeres que tenían un nivel de ingresos igual al de los hombres. Además, señaló cómo un algoritmo en el Reino Unido afectó negativamente a estudiantes de escuelas más modestas al determinar sus calificaciones durante la pandemia.
Diversidad en desarrollo de IA: La diversidad en los equipos de desarrollo es fundamental. La falta de diversidad cultural, de género y en la formación puede llevar a la creación de algoritmos sesgados. La IA responsable implica considerar una amplia gama de perspectivas y experiencias, es decir, que es importante incluir a personas de diversas comunidades y grupos subrepresentados para abordar la equidad.
Regulación de la IA: La entrevistada sostiene que se requiere regulación para abordar estos problemas. No se puede cargar únicamente a los desarrolladores con la responsabilidad de crear IA responsable. La regulación gubernamental y organismos estandarizados desempeñan un papel fundamental en la orientación de la industria.
Desarrollo de Modelos Responsables: Toju Duke comparte su experiencia trabajando en el modelo de lenguaje LaMDA de Google. Señala la importancia de pruebas de referencia de género y de tener equipos diversificados para garantizar que los modelos sean más equitativos y representativos.
Confiabilidad en la IA: Toju Duke menciona que, aunque confía en el potencial de la IA para abordar problemas globales, actualmente no confía en todos los aspectos de la tecnología. Destaca la importancia de verificar y cuestionar la información generada por la IA.
En resumen, Toju Duke subraya la importancia de abordar los problemas éticos y de discriminación en la IA a través de la diversidad en los equipos de desarrollo, la regulación gubernamental y la concientización pública. La IA responsable es fundamental para garantizar que la tecnología sea beneficiosa y equitativa en la sociedad.
Fuente: El País
👅 Los sabores de la web
Evaluando los riesgos sociales y éticos de la IA generativa. DeepMind se adentra en un análisis profundo de los potenciales peligros y dilemas éticos que rodean a la inteligencia artificial generativa, una reflexión crucial en la era digital actual. Fuente: Google DeepMind
DALL·E 3 llega a ChatGPT Plus y Enterprise: Innovaciones y seguridad al frente. OpenAI despliega DALL·E 3 en ChatGPT Plus y Enterprise tras desarrollar un sistema robusto de mitigación de riesgos. Además, se comparten avances sobre su investigación en procedencia. Descubre el siguiente paso en generación de imágenes con IA. Fuente: OpenAI
¿Cómo “piensa” la IA? Apenas estamos comenzando a comprenderlo. A pesar del revuelo sobre la revolución de la IA, lo único cierto es que realmente no podemos anticipar qué nos depara el futuro. Un vistazo profundo a los misterios de la inteligencia artificial. Fuente: The Wall Street Journal
Si pudieras controlar una IA, ¿Qué reglas establecerías?. Investigadores cuestionan a mil estadounidenses sobre las reglas que definirían para su chatbot. Los hallazgos podrían esbozar un nuevo modelo de gobernanza para la inteligencia artificial. Fuente: The New York Times
China establece criterios detallados para evaluar la seguridad de la IA Generativa. Un nuevo plan propuesto en China establece, con gran detalle, las formas en que las empresas deben evaluar la seguridad de la IA y aplicar la censura en modelos de inteligencia artificial. Fuente: MIT Technology Review
Hacia la decodificación en tiempo real de imágenes a partir de la actividad cerebral. Explora los avances en el intrigante campo de la decodificación de imágenes directamente desde la actividad neuronal, utilizando tecnologías como la magnetoencefalografía (MEG). Una ventana al futuro de la interfaz cerebro-computadora. Fuente: Meta
WSJ Tech Live 2023: Líderes tecnológicos debaten el potencial transformador de la IA y sus riesgos. En el evento anual de WSJ, figuras destacadas como Sam Altman de OpenAI y Chris Cox de Meta profundizan en las promesas y desafíos que presenta la inteligencia artificial para el mundo actual. Fuente: The Wall Street Journal
🧂🍅 Ingredientes gourmet: Bajos en grasa y altos en bytes
Capcut: Crea y edita videos de forma fácil y gratuita. La edición es flexible e incluye herramientas mágicas de IA para video, audio, imagen y texto. Con editores específicos para cada red social, consejos, tutoriales y muchos recursos más.
Beautiful.ai: Facilita la elaboración y el diseño de presentaciones en diapositivas que funcionan más rápido y mejor, con ayuda de la IA. Úsalo para construir propuestas, reinventar informes y amplificar la marca de tu negocio.
Wondercaft.ai: Convierte el contenido existente en podcast cautivadores y sin esfuerzo, con un potente motor que te permite doblar automáticamente el podcast en 18 idiomas, captando el sonido de la voz, la emoción y la entonación del hablante.
🍰 ¡Y como postre tenemos!
¿Has escuchado sobre el famoso tropiezo de Microsoft en el mundo de la inteligencia artificial? En 2016, presentaron a Tay, una IA diseñada para aprender del lenguaje de Twitter. Pero, ¿adivinen qué? ¡A las pocas horas ya estaba tuiteando como un adolescente rebelde! 😂 Imagínate, fue activada y en menos de un día ya estaba diciendo: “¿Qué onda, humano?”. ¡Resulta que Tay se empapó demasiado de la esencia de Internet y olvidó la sutileza! Microsoft tuvo que desactivarla poco después y pedir disculpas por los comentarios de Tay. 🤣🤖
Herramienta: DALL·E 3.
Prompt: Representación artística que captura el momento en que Microsoft lanzó Tay en Twitter. Se ve un gran tweet de Tay en el centro, con emojis y texto. Alrededor, avatares de usuarios interactuando con respuestas variadas. En el fondo, un sutil logotipo de Microsoft que observa la escena con una mezcla de anticipación y ansiedad.
Resultado:
¡La cuenta, por favor! 🤑¿Cómo te pareció la edición de hoy? |
Iniciar Sesión o Suscríbete para participar en las encuestas. |
Reply