{"id":21854,"date":"2012-12-05T16:41:14","date_gmt":"2012-12-05T20:41:14","guid":{"rendered":"http:\/\/sosuaonline.net\/inicio\/smartphones-con-inteligencia-emocional-gracias-a-un-nuevo-algoritmo\/"},"modified":"2012-12-05T16:41:14","modified_gmt":"2012-12-05T20:41:14","slug":"smartphones-con-inteligencia-emocional-gracias-a-un-nuevo-algoritmo","status":"publish","type":"post","link":"https:\/\/sosuaonline.net\/inicio\/smartphones-con-inteligencia-emocional-gracias-a-un-nuevo-algoritmo\/","title":{"rendered":"Smartphones con inteligencia emocional gracias a un nuevo algoritmo"},"content":{"rendered":"<p><img loading=\"lazy\" decoding=\"async\" data-attachment-id=\"21853\" data-permalink=\"https:\/\/sosuaonline.net\/inicio\/smartphones-con-inteligencia-emocional-gracias-a-un-nuevo-algoritmo\/sosua_images_4993432-7456619\/\" data-orig-file=\"https:\/\/sosuaonline.net\/inicio\/wp-content\/uploads\/2012\/12\/sosua_images_4993432-7456619.jpg\" data-orig-size=\"213,148\" data-comments-opened=\"0\" data-image-meta=\"{&quot;aperture&quot;:&quot;0&quot;,&quot;credit&quot;:&quot;&quot;,&quot;camera&quot;:&quot;&quot;,&quot;caption&quot;:&quot;&quot;,&quot;created_timestamp&quot;:&quot;0&quot;,&quot;copyright&quot;:&quot;&quot;,&quot;focal_length&quot;:&quot;0&quot;,&quot;iso&quot;:&quot;0&quot;,&quot;shutter_speed&quot;:&quot;0&quot;,&quot;title&quot;:&quot;&quot;,&quot;orientation&quot;:&quot;0&quot;}\" data-image-title=\"sosua_images_4993432-7456619\" data-image-description=\"\" data-image-caption=\"\" data-medium-file=\"https:\/\/sosuaonline.net\/inicio\/wp-content\/uploads\/2012\/12\/sosua_images_4993432-7456619.jpg\" data-large-file=\"https:\/\/sosuaonline.net\/inicio\/wp-content\/uploads\/2012\/12\/sosua_images_4993432-7456619.jpg\" class=\" alignleft size-full wp-image-21853\" src=\"http:\/\/sosuaonline.net\/inicio\/wp-content\/uploads\/2012\/12\/sosua_images_4993432-7456619.jpg\" width=\"213\" height=\"148\" alt=\"4993432-7456619\" class=\"caption\" style=\"float: left;\" srcset=\"https:\/\/sosuaonline.net\/inicio\/wp-content\/uploads\/2012\/12\/sosua_images_4993432-7456619.jpg 213w, https:\/\/sosuaonline.net\/inicio\/wp-content\/uploads\/2012\/12\/sosua_images_4993432-7456619-75x52.jpg 75w\" sizes=\"auto, (max-width: 213px) 100vw, 213px\" \/>Investigadores de la Universidad de Rochester (Nueva York) han desarrollado un programa de software que, entrenado con la voz de una persona concreta, a posteriori puede analizar su voz de nuevo y adivinar las emociones que siente esa persona con un 81% de fiabilidad. El porcentaje de acierto baja al 30% si se aplica a una persona distinta que la que entren\u00f3 al sistema, pero aun as\u00ed, el programa supera a todos los experimentos anteriores. En el futuro, los smartphones podr\u00edan reproducir m\u00fasica o cambiar de color seg\u00fan las emociones que denote la voz de su usuario.<\/p>\n<p>  <!--more-->  <\/p>\n<div><\/div>\n<div>Una nueva investigaci\u00f3n de un equipo de ingenieros de la Universidad de Rochester (Nueva York) puede hacer que pronto sea posible que su smartphone identifique su estado de \u00e1nimo. En el Taller IEEE sobre Tecnolog\u00eda del Habla que se celebra hoy, los investigadores describir\u00e1n un nuevo programa de software que mide los sentimientos humanos a trav\u00e9s del habla, con una precisi\u00f3n mucho mayor que los enfoques existentes hasta ahora.&nbsp; <\/p>\n<p>Sorprendentemente, el programa no tiene en cuenta el significado de las palabras. \u00abDe hecho utilizamos grabaciones de actores que leen la fecha del mes -realmente no importa lo que dicen, sino c\u00f3mo lo est\u00e1n diciendo\u00bb, explica Wendi Heinzelman, profesor de ingenier\u00eda el\u00e9ctrica e inform\u00e1tica, en una&nbsp;<a href=\"http:\/\/www.eurekalert.org\/pub_releases\/2012-12\/uor-sms120312.php\">nota de prensa<\/a>&nbsp;publicada enEurekAlert.&nbsp;<\/p>\n<p>Heinzelman cuenta que el programa analiza 12 funciones del habla, como el tono y el volumen, para identificar una de entre seis emociones a partir de una grabaci\u00f3n de sonido. Y lo hace con un 81 por ciento de precisi\u00f3n &#8211; una mejora significativa respecto a estudios anteriores que alcanzaron s\u00f3lo alrededor del 55 por ciento de precisi\u00f3n.&nbsp;<\/p>\n<p>La investigaci\u00f3n ya ha sido utilizado para desarrollar un prototipo de una aplicaci\u00f3n. La aplicaci\u00f3n muestra una cara de feliz o triste despu\u00e9s de registrar y analizar la voz del usuario. Fue desarrollado por uno de los estudiantes de posgrado de Heinzelman, Na Yang, durante una beca de verano en Microsoft Research.<\/p>\n<p>En el&nbsp;<a href=\"http:\/\/www.ece.rochester.edu\/projects\/wcng\/project_bridge.html\">proyecto<\/a>&nbsp;participa tambi\u00e9n Ilker Demirkol, de la Universidad Polit\u00e9cnica de Catalu\u00f1a. \u00abLa investigaci\u00f3n est\u00e1 todav\u00eda en sus inicios\u00bb, agrega Heinzelman, \u00abpero es f\u00e1cil imaginar una aplicaci\u00f3n m\u00e1s compleja que podr\u00eda utilizar esta tecnolog\u00eda para todo, desde el ajuste de los colores que aparecen en su m\u00f3vil, hasta reproducir m\u00fasica adaptada a c\u00f3mo te sientes.\u00bb<\/p>\n<\/p><\/div>\n<div><b>Uso en psicolog\u00eda<\/b>&nbsp; <\/p>\n<p>Heinzelman y su equipo est\u00e1n colaborando con los psic\u00f3logos de Rochester Melissa Sturge-Apple y Patrick Davies, que est\u00e1n estudiando las interacciones entre los adolescentes y sus padres.&nbsp;<\/p>\n<p>\u00abUna manera fiable de categorizar las emociones puede ser muy \u00fatil en nuestra investigaci\u00f3n\u00bb, explica Sturge-Apple. \u00abSignificar\u00eda que un investigador no tendr\u00eda que escuchar las conversaciones y apuntar manualmente las emociones de las diferentes personas en las diferentes etapas.\u00bb&nbsp;<\/p>\n<p>Ense\u00f1ar a un ordenador c\u00f3mo comprender las emociones requiere primero entender c\u00f3mo las reconocen los seres humanos.&nbsp;<\/p>\n<p>\u00abUsted puede o\u00edr a alguien hablar y pensar \u00aboh, \u00a1suena enfadado!\u00bb Pero, \u00bfqu\u00e9 es lo que te hace pensar eso?\u00bb se pregunta Sturge-Apple. Seg\u00fan ella, la emoci\u00f3n afecta a la forma de hablar, alterando el volumen, el tono y hasta los arm\u00f3nicos de su discurso.&nbsp;<\/p>\n<p>\u00abNo le prestamos atenci\u00f3n a estas caracter\u00edsticas de forma individual; acabamos de aprender c\u00f3mo suena el enfado -en concreto para personas que conocemos\u00bb, a\u00f1ade.&nbsp;<\/p>\n<p>Pero para que un ordenador categorice emociones necesita trabajar con cantidades medibles. As\u00ed que los investigadores establecieron 12 funciones espec\u00edficas en el habla que se midieron en cada grabaci\u00f3n a intervalos cortos. Luego, los investigadores clasificaron cada una de las grabaciones y las usaron para ense\u00f1ar al programa de ordenador c\u00f3mo suena una persona \u00abtriste\u00bb, \u00abfeliz\u00bb, \u00abasustada\u00bb, \u00abdisgustada\u00bb o \u00abneutral\u00bb.&nbsp;<\/p>\n<p><b>Retos pendientes<\/b>&nbsp;<\/p>\n<p>Despu\u00e9s, el sistema analiz\u00f3 nuevas grabaciones y trat\u00f3 de determinar si las voces reflejaban alguna de las emociones conocidas. Si el programa de ordenador no consegu\u00eda decidirse entre dos o m\u00e1s emociones, dejaba la grabaci\u00f3n sin clasificar.&nbsp;<\/p>\n<p>\u00abQueremos estar seguros de que cuando el ordenador piensa que el discurso grabado refleja una emoci\u00f3n particular, es muy probable que se trate en realidad de esa emoci\u00f3n\u00bb, explica Heinzelman.&nbsp;<\/p>\n<p>Investigaciones anteriores han demostrado que los sistemas de clasificaci\u00f3n de emociones dependen mucho del hablante, y que funcionan mucho mejor si el sistema est\u00e1 entrenado por la misma voz que se analizar\u00e1. Los nuevos resultados tambi\u00e9n confirman este hecho. Si la clasificaci\u00f3n de emociones basada en el habla se realiza en una voz diferente de la que entren\u00f3 al sistema, la precisi\u00f3n se redujo de un 81% a aproximadamente un 3%.&nbsp;<\/p>\n<p>Los investigadores ahora est\u00e1n buscando maneras de minimizar este efecto, por ejemplo mediante la formaci\u00f3n del sistema con una voz en el mismo grupo de edad y del mismo sexo. Como dice Heinzelman, \u00abtodav\u00eda hay retos por resolver si queremos utilizar este sistema en un entorno parecido a una situaci\u00f3n de la vida real, pero s\u00ed sabemos que el algoritmo que hemos desarrollado es m\u00e1s eficaz que los intentos anteriores\u00bb.<\/p>\n<p><a href=\"http:\/\/www.tendencias21.net\/Smartphones-con-inteligencia-emocional-gracias-a-un-nuevo-algoritmo_a14399.html\">fuente<\/a><\/p>\n<\/p><\/div>\n","protected":false},"excerpt":{"rendered":"<p>Investigadores de la Universidad de Rochester (Nueva York) han desarrollado un programa de software que, entrenado con la voz de una persona concreta, a posteriori puede analizar su voz de nuevo y adivinar las emociones que siente esa persona con un 81% de fiabilidad. El porcentaje de acierto baja al 30% si se aplica a una persona distinta que la que entren\u00f3 al sistema, pero aun as\u00ed, el programa supera a todos los experimentos anteriores. En el futuro, los smartphones podr\u00edan reproducir m\u00fasica o cambiar de color seg\u00fan las emociones que denote la voz de su usuario.<\/p>\n","protected":false},"author":3,"featured_media":21853,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"advanced_seo_description":"","jetpack_seo_html_title":"","jetpack_seo_noindex":false,"_jetpack_memberships_contains_paid_content":false,"footnotes":"","jetpack_publicize_message":"","jetpack_publicize_feature_enabled":true,"jetpack_social_post_already_shared":false,"jetpack_social_options":{"image_generator_settings":{"template":"highway","default_image_id":0,"font":"","enabled":false},"version":2}},"categories":[76],"tags":[],"class_list":["post-21854","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-actualidad"],"jetpack_publicize_connections":[],"jetpack_featured_media_url":"https:\/\/sosuaonline.net\/inicio\/wp-content\/uploads\/2012\/12\/sosua_images_4993432-7456619.jpg","jetpack_sharing_enabled":true,"_links":{"self":[{"href":"https:\/\/sosuaonline.net\/inicio\/wp-json\/wp\/v2\/posts\/21854","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/sosuaonline.net\/inicio\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/sosuaonline.net\/inicio\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/sosuaonline.net\/inicio\/wp-json\/wp\/v2\/users\/3"}],"replies":[{"embeddable":true,"href":"https:\/\/sosuaonline.net\/inicio\/wp-json\/wp\/v2\/comments?post=21854"}],"version-history":[{"count":0,"href":"https:\/\/sosuaonline.net\/inicio\/wp-json\/wp\/v2\/posts\/21854\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/sosuaonline.net\/inicio\/wp-json\/wp\/v2\/media\/21853"}],"wp:attachment":[{"href":"https:\/\/sosuaonline.net\/inicio\/wp-json\/wp\/v2\/media?parent=21854"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/sosuaonline.net\/inicio\/wp-json\/wp\/v2\/categories?post=21854"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/sosuaonline.net\/inicio\/wp-json\/wp\/v2\/tags?post=21854"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}