El especialista en ética de la IA de Intel, de 20 años y que se graduó de la escuela secundaria a los 11, analiza el futuro



Rhea Cheruvu ha estado en primera línea durante la mayor parte de su vida. Después de graduarse de su escuela secundaria en Arizona con solo 11 años, la estudiante prodigio se convirtió en una de las personas más jóvenes en graduarse de Harvard. Su historial colectivo es una maravilla para muchos.

Después de un período de estudiar neurobiología y mientras obtenía su primer título en informática, contrataron a Cheruvu para trabajar en ello. Equipo de ética de Intel – precede Amnistía Internacional El boom que llegará pronto a los mercados públicos, y años antes de que la frase se convierta en un vocablo familiar. En el momento de su nombramiento, Shirufu tenía sólo 14 años. En los años transcurridos desde que se unió al gigante tecnológico y se graduó de la Ivy League, se ha convertido en una voz de tendencia en el desarrollo de una IA responsable, reforzando su currículum con múltiples patentes de IA, una maestría en ciencia de datos de su alma mater después de una pasantía en neurociencia en Yale y múltiples créditos docentes para cursos digitales sobre ética de la IA. Ella también está trabajando en su doctorado porque… ¿por qué no?

Hoy, como uno de los ingenieros de inteligencia artificial de Intel y “evangelista” (sí, esa es la verdadera palabra), el joven de 20 años está al frente de uno de los temas más candentes del mundo: cómo avanzamos con esta tecnología y cómo podemos ¿Hacerlo de una manera que garantice que las personas reales sigan siendo su núcleo?

Su presencia es una rareza en una industria ahora dominada por inversionistas de capital de riesgo, intereses comerciales y autodenominados “disruptores” en tecnología. Pero su antigüedad es más un beneficio que un inconveniente, ya que el futuro de la IA pronto estará en manos de la próxima generación de tecnólogos y usuarios (sus pares), muchos de los cuales ya están adoptando la compleja integración de la IA generativa en sus sistemas. vidas cotidianas.

Cheruvu habló con Mashable sobre su carrera establecida en el mundo de “AI for Good”, y es una de las pocas voces jóvenes con un asiento en la mesa mientras el mundo se enfrenta a un cambio acelerado.

Mashable: sus logros se desarrollan en una variedad de campos científicos: informática, ciencia de datos y neurociencia. ¿Por qué dirigiste tu atención específicamente a la IA e Intel?

Shirovo: Después de obtener mi licenciatura en informática, estaba buscando el siguiente paso. Fue un punto de inflexión: ¿Me dedico a la neurociencia o estudio algo relacionado con la informática y la ciencia de datos? Tuve un breve interés en la inteligencia artificial.

Mis padres son ingenieros de software de formación y tienen maestrías en aplicaciones y tecnología informática. En ese momento, mi padre trabajaba en Intel. De hecho, en la escuela secundaria hice varias excursiones al campus local. Postulé y me entrevisté con tres equipos diferentes en diferentes regiones. Uno era pura matemática e inteligencia artificial, otro un poco sobre neurociencia y el último era aprendizaje profundo y hardware. Al final elegí ese tercer equipo y fui aceptado. A partir de ahí evolucionó a un viaje de seis años en el que desempeñó diversos roles en Intel.

See also  En la Cumbre de Biodiversidad surge un plan para financiar la conservación de la vida silvestre

La industria ha experimentado muchas ventas, especialmente en los últimos años, ¿qué te ha mantenido ahí?

He desempeñado muchos roles diferentes en diferentes campos. Algunos de ellos eran puramente comerciales o tecnológicos, otros eran puramente de investigación y otros eran ambas cosas. Fui líder de equipo y ahora soy evangelista, orador público y arquitecto. Estoy volviendo más a roles de ingeniero técnico. Muchos saltos por el mapa. Pero mi red y mi comunidad siguen siendo fieles, lo que me anima a seguir trabajando en Intel y también en la industria de la IA.

Me parece realmente raro oír hablar de un joven como usted que esté tan comprometido con el desarrollo ético de la IA, no solo con su uso. ¿Por qué este y no otro aspecto?

He estado investigando la IA ética durante unos dos o tres años, tanto a nivel profesional como personal. Técnicamente, hay muchas cosas que hacer: herramientas técnicas, análisis, métricas, control de calidad, todas esas cosas divertidas. Desde el punto de vista social, queda mucho trabajo por hacer en materia de privacidad, consentimiento, prejuicios y discriminación algorítmica. Ha sido un torbellino aprender sobre todos estos temas y luego tratar de entender qué es práctico versus lo que parece ser de lo que se habla mucho, y hacer reevaluaciones honestas.

Existe una necesidad creciente de voces jóvenes y oportunidades para que las generaciones más jóvenes puedan dar un paso al frente y comenzar a contribuir a estas tecnologías.

Mi madre tiene un doctorado en metafísica y filosofía, por eso tenemos conversaciones muy profundas sobre la inteligencia artificial y la humanidad. ¿Cuál es exactamente nuestra idea de conciencia? ¿Hasta dónde puede llegar la inteligencia artificial en cuanto a su capacidad para imitar a los humanos? ¿Cuál es nuestro marco para ayudarnos unos a otros?

¿Fueron fructíferas estas reflexiones? Entonces, ¿cómo es la “IA para el bien”? En este momento, la frase “centrado en el ser humano” es muy popular, pero ¿qué significa para el futuro?

Las personas que están expuestas a la tecnología y la tecnología digital están expuestas a la inteligencia artificial a un ritmo cada vez más rápido. La razón por la que me inclino por los marcos “centrados en el ser humano” es para centrarme en el hecho de que la infraestructura y la tecnología deberían poder empoderar a los usuarios.

Velocidad de la luz triturable

Dependiendo de las regulaciones y las comunidades que construimos en torno a ellas, usted debería tener derecho a controlar los datos que crea. Desde el punto de vista técnico, debemos capacitar a los desarrolladores y creadores para que puedan realizar pruebas de sesgo y eliminar datos de los modelos. No entrenamos modelos de datos utilizando datos para los que no tenemos consentimiento. Cuando eres una persona de IA, se supone que debes abogar por el desarrollo de la IA. Pero, personalmente, hay muchas áreas en las que creo que un mayor desarrollo de la IA no tiene sentido. Tal vez sea algo que deba simplificarse aún más o estar en manos de personas creativas y artistas.

A medida que vemos que muchas de estas tecnologías, como la robótica y los vehículos autónomos, comienzan a surgir, ¿cómo permiten las experiencias de los usuarios? ¿Cómo generamos confianza en estas relaciones?

See also  Los cierres nocturnos de la Interestatal 5 y las dos rampas de la autopista comienzan el lunes

Hay dos investigadores destacados. el Expertos en la materia en la materia. estoy pensando en Phi Phi Lee y Yijin Choi. Ha sido realmente interesante ver cómo su investigación y la investigación que surge de sus laboratorios y equipos se ha relacionado con desarrollos o avances más importantes en la IA. He estado usando esta investigación como marcador para desmitificar lo que viene después. [the AI industry].

Su título es “evangelista”, que es un término interesante para usar en el desarrollo científico, pero usted es esencialmente un comunicador público. ¿Cómo se maneja este rol en medio de la avalancha de cobertura de IA?

Hay mucha presión, hay mucho ruido en torno a ciertos temas. Se necesita una voluntad y una determinación muy fuertes para seguir adelante y decir lo que es importante para mí, mi comunidad y la industria en este momento. Centrarse en lo que realmente impulsa práctico El impacto que quiero comunicar y compartir con la gente, las cosas sobre las que puedo inspirarlos a ser optimistas. También quiero ser honesto acerca de los riesgos y desafíos. En lugar de distorsionar la verdad, sea honesto al respecto. Como evangelista y alguien a quien le apasiona hablar en público tanto como programar, ¿cómo es ese equilibrio?

Ha habido un surgimiento, o un auge, de expertos y evangelistas de la IA en este campo. No estoy diciendo nada directamente sobre credenciales ni nada por el estilo, pero todos tienen una opinión sobre la IA. Personalmente escucho los puntos de vista que llevan más tiempo en la industria. Esa sabiduría transmitida es algo de lo que me beneficiaría, a diferencia, quizás, de algunas personas nuevas que hacen algunas suposiciones rápidas.

¿Cómo imagina que sus colegas participarán en estas conversaciones?

Creo que existe una necesidad creciente de voces jóvenes y oportunidades para que las generaciones más jóvenes puedan dar un paso al frente y comenzar a contribuir a estas tecnologías. Y a través de su uso, [the technologies are] Dominado muy rápidamente.

Es importante aportarle una nueva perspectiva. [AI design]. No se trata sólo de consumir tecnología, sino de contribuir a su desarrollo y poder darle forma de diferentes maneras. En lugar de verlo como una especie de “molestia” o “burbuja” que debe explorarse y llevarse al límite, podemos devolverlo a las aplicaciones donde pueda resultar más útil.

Hay muchas oportunidades para contribuir. Muchas de ellas no son tan reconocidas como otras aplicaciones, en términos de prioridad, cobertura en los medios o interés público, pero ciertamente generan un impacto más significativo. Siempre hay proyectos y temas más importantes, como grandes modelos de lenguaje, pero las aplicaciones más pequeñas también marcan la diferencia.

Perdón por usar un cliché, pero parece que la IA es solo otro “legado global” que transmitiremos a las generaciones más jóvenes, de manera muy similar a como lo hemos hecho con la actual crisis climática.

Estuve leyendo esta cita recientemente sobre la capacidad de dejar el mundo atrás un poco mejor de lo que lo encontraste cuando lo encontraste por primera vez. En un contexto generacional, debemos continuar las conversaciones sobre esto, especialmente con los algoritmos de IA cercanos a nosotros, ya sean redes sociales o aplicaciones que escriben contenido para usted. Estás expuesto a ellos a diario.

See also  Slack ha introducido nuevas herramientas para tu iPhone

En mi opinión, muchas personas se sienten incómodas con la presión generalizada para utilizar la IA en nuestra vida diaria, cuando no entendemos completamente lo que está en juego. Quieren que las cosas se desaceleren.

Siento que las personas que trabajan en IA y aprendizaje automático lo saben muy bien, pero por alguna razón, no se propaga fuera de esa burbuja. Las personas que trabajan en IA saben que deben ser muy cautelosas cuando ven una herramienta. Cauteloso en el sentido de “no lo adoptaré ni lo usaré, a menos que crea que es útil”. Pero cuando llega [AI stakeholders] Externamente, creo que esto es simplemente una exageración. Irónicamente, esto no es lo que se ve en el círculo interno. Simplemente estamos siendo presionados.

¿Qué le deben las partes interesadas o desarrolladores actuales a la próxima generación de tecnólogos y usuarios, incluido usted?

Interrumpir el trabajo humano es un tema realmente importante y estoy pensando en el talento y las personas que quieren ingresar a la IA. Cuando hablamos de IA y estas tecnologías, siempre hablamos de: innovar rápido, rápido y avanzar. Este tipo de palabras y otros términos se siguen agregando a la pila, lo que hace que sea aún más intimidante para las personas comprender y entender realmente. [AI]. La propia “inteligencia artificial” es una de esas palabras. Este campo comenzó con el “aprendizaje profundo” y el “aprendizaje automático” y ha sido una transformación gradual. He visto el cambio de puesto de ingeniero de aprendizaje profundo a ingeniero de inteligencia artificial. Yo también soy parte de eso. Creo que podría haber una oportunidad de tomar la IA como palabra de moda y deconstruirla, y aún podemos conservar la palabra y el sentimiento general que la rodea.

Pero la responsabilidad que un usuario puede asumir es limitada. Los proveedores, promotores y constructores de infraestructuras también deben poder asumir esta responsabilidad. Por supuesto, las regulaciones ayudan a proteger los derechos de las personas involucradas hasta cierto punto.

Es posible que muchas personas no tengan tiempo para sentarse y leer el resumen completo de lo que necesitan saber. Aprecio el contenido y las personas que se toman el tiempo para analizarlo y decir: “Ya lo tengo. Es fácil. Así es como contribuyes”. No tiene por qué ser un tema aterrador. Es algo sobre lo que puede expresar sus preocupaciones.

He tenido muchas conversaciones en los últimos años con personas brillantes sobre la IA inclusiva, la democratización de la IA y la alfabetización en IA. Hay muchas maneras diferentes de permitir este empoderamiento. Por ejemplo, ha habido muchos esfuerzos realmente interesantes en programas de preparación digital de los que me siento honrado de ser parte, como ir a colegios comunitarios o crear planes de estudio de IA de forma gratuita. Aproximadamente cinco millones de personas han recibido capacitación como parte de los programas de preparación digital de Intel. Necesitamos más accesibilidad, más tutoriales, más contenido, más interacción uno a uno, diciendo: “Sabes, esto es más fácil de lo que piensas. Puedes convertirte en un profesional en este campo. No es tan difícil comenzar”.





Source Article Link

Leave a Comment