Error De Paridad Inteligencia Artificial
Contents |
inteligencia artificial David Perez el 28/05/2015 a las 10:20 La inteligencia artificial avanza a pasos agigantados, y este algoritmo hace que pueda aprender por sí mismo. Muchos querrán ponerse un gorrito de papel de plata con esta afirmación, pero las máquinas que
Microsoft Tay
actúan por sí solas ya son una realidad: tenemos coches que conducen sin intervención humana, tay tweets drones que sobrevuelan los cielos sin un operario a los mandos, robots que actúan sin que un supervisor les tenga que dar órdenes concretas… Sabiendo todo esto, es predecible que la inteligencia artificial va a tener un papel imprescindible en el futuro: las máquinas serán cada vez más inteligentes, y el algoritmo creado por la Universidad de California quiere ayudar a las máquinas a poder aprender por sí mismas, imitando el comportamiento humano y animal. Ese robot tan majo que tenéis en las imágenes y que nos presenta Berkeley se llama BRETT (Berkley Robot of the Elimination of Tedious Tasks), y es capaz de montar objetos básicos sin tener instrucciones o programación de ningún tipo: aprende a base del clásico prueba y error, y mejora según va cometiendo fallos en sus tareas. Como podéis ver en el vídeo, nuestro particular robot no se rinde con su particular prueba y error: lo intenta e intenta hasta que lo consigue, pero es capaz de hacerlo inmediatamente cuando ha aprendido en ese particular proceso de prueba y error. Y, como también aparece en el vídeo, es capaz de ir realizando tareas cada vez más complejas. Actualidad Ciencia Te puede interesar Artículo anterior Artículo siguiente Lenovo Cast, un nuevo rival para Chromecast con soporte Miracast y DLNA Cómo medir Pi lanzando muchos dardos sin apuntar Juan Ojeda Lo ultimo?, querras decir lo de moda?. Porque esto tiene ya muchos años… De hecho es lo mas usual en inteligencia artificial… Basico: Un sistema PID trabaja sobre el error, para tener una cierta aproximación continua del setpoint (que sería lo que "tendría que hacer"). Pues en ves de trabajar con la salida real, después de algunos intentos se trabaja con la salida "futura". así "aprende de su error. Pero no es mas que una base de datos y un Sistema de Control Proporcional Integrativo Derivativo… nada del otro mundo. Últimas noticias Una de las joyas ocultas del rol ha llegado a iOS y MacFacebook se mete en tu empresa y tu trabajo con
a Kinja Toggle Conversation toolsIr al enlace permanente Parece que nos somos los únicos en sentir un cierto reparo hacia la idea de construir una máquina inteligente capaz de pensar por si misma. El laureado físico Stephen Hawking no ha dudado en calificar a la Inteligencia Artificial, o I.A. como el peor error que podría cometer la humanidad, y probablemente el último. Hawking no se muestra abiertamente contrario a las investigaciones en este campo, pero cree que la comunidad científica no se está preocupando lo suficiente por mantener bajo control un eventual sistema de inteligencia artificial el día que se descubra. El físico ha publicado un artículo conjunto con el http://www.omicrono.com/2015/05/robots-que-aprenden-a-base-de-prueba-y-error-lo-ultimo-en-inteligencia-artificial/ especialista en computación Stuart Russell, y los físicos Max Tegmark y Frank Wilczek. Estas son sus palabras. Podéis leer artículo completo (en inglés) aquí. [vía The Independent]Si miramos hacia el futuro, no hay límites a lo podemos lograr en este campo [I.A.]. No hay ninguna ley física que impida que las partículas en un sistema de inteligencia artificial se re-ordenen a sí mismas para http://es.gizmodo.com/stephen-hawking-la-i-a-puede-ser-el-peor-error-de-la-1571328845 realizar cálculos más complejos de los que somos capaces de hacer los seres humanos. Es perfectamente posible que se produzca un salto radical e inesperado. Como Irving Good ya apuntó en 1965, un sistema de inteligencia artificial puede decidir mejorar su propio diseño por su cuenta, dando lugar a lo que Vernor Vinge denominó una singularidad, o lo que Johny Depp llama Trascendencia en la reciente película que protagoniza.No es difícil imaginar una tecnología semejante dominando completamente los mercados financieros, sobrepasando los diseños de sus propios creadores, manipulando líderes, o encontrando maneras de construir armas que no seríamos capaces ni de comprender. Aunque el impacto a corto plazo de un sistema de inteligencia artificial depende de quien lo controla, la cuestión a largo plazo es si un sistema así puede ser controlado por seres humanos.Estamos ante un futuro de incalculables posibilidades, oportunidades y riesgos. Es lógico pensar que los científicos están tomando todas las precauciones para asegurar el mejor resultado posible, ¿verdad? Pues no es así. ¿Si una civilización del espacio exterior nos enviara un mensaje diciendo: "Llegamos en unos años", nuestra respuesta sería: "¡Ok! Avisadnos cuando estéis
escrito George Steiner en su imprescindible “La idea de Europa” (Siruela),“está compuesta de cafés. Estos se extienden desde el café favorito de Pessoa en Lisboa hasta los cafés de http://blogs.elpais.com/cafe-steiner/2014/12/inteligencia-artificial-progreso-o-peligro.html Odessa frecuentados por los gangsters de Isaak Bábel. Si trazamos el mapa de los cafés, tendremos uno de los indicadores esenciales de la idea de Europa. El café es un lugar para la cita y la conspiración, para el debate intelectual y para el cotilleo, para el flâneur y para el poeta o el metafísico con su cuaderno. Está abierto a todos”. Extinguidos por error de las máquinas. Inteligencia Artificial: ¿progreso vital o peligro letal? Por: José Ignacio Torreblanca | 18 de diciembre de 2014 Les presento a Deep Mind, una computadora capaz de aprender a jugar contra las computadoras mucho más rápido de lo que cualquier persona podría hacer. Deep Mind hace lo que usted y yo hacemos: observar patrones de conducta e intentar predecir cómo reaccionar. De momento error de paridad Deep Mind se lo está pasando genial jugando a los juegos Arcade (vean en el video cómo aprende de rápido). Digamos que Deep Mind es un adolescente feliz porque es capaz de derrotar a todas las maquinetas que nos hacían imposible la vida cuando teníamos doce o catorce años. El problema es que Deep Mind es tan increíblemente bueno y rápido aprendiendo que ha despertado algunas alarmas, entre ellas, significativamente, las de su propio creador, Shane Legg, que ha dicho que los avances en inteligencia artificial, si no se controlan bien, pueden convertirse en la amenaza número 1 para el ser humano en este siglo (parece broma pero no lo es). En el post anterior ("Llegan los robots asesinos") traté el tema de los robots asesinos y su regulación como arma de guerra. Pero el tema que planteo ahora es, si cabe, aún más peliagudo. El que la inteligencia artificial acabara dominado al ser humano que la ha creado es una pesadilla recurrente de la ciencia-ficción. Seguro que hay lectores de este blog que pueden documentar quién fue el primero en plantear esta distopia pero está claro que el cine, desde 2001 Una Odi
be down. Please try the request again. Your cache administrator is webmaster. Generated Sun, 09 Oct 2016 18:38:21 GMT by s_ac4 (squid/3.5.20)