Convertir la novedad en valor

Francisco González Bree

Convertir la Novedad en Valor es un blog de Francisco González Bree sobre la Creatividad, la Tecnología y la Innovación. El autor analiza el impacto actual de la innovación en el rendimiento de las empresas y los estándares de vida de las personas y observa las necesidades del mercado y las tecnologías en un futuro no muy lejano.

Luis Ferrándiz

Francisco González Bree es Doctor en Business Administration y trabaja en la actualidad como director académico del Master in Business Innovation (MBI) de Deusto Business School. Colaboró como Director de Marketing en Anboto nombrada mejor start up del mundo en 2010 y en Sher.pa. Ha trabajado más de 15 años en puestos directivos en multinacionales y más de 6 años ayudando como tutor y mentor a decenas de empresas de todos los tamaños y sectores con sus planes y modelos de negocio.

junio 2018

lun. mar. mié. jue. vie. sáb. dom.
        1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24
25 26 27 28 29 30  

Suscríbete a RSS

¿Qué es RSS? Es una tecnología que envía automáticamente los titulares de un medio a un programa lector o agregador. Para utilizar las fuentes RSS existen múltiples opciones. La más común consiste en instalar un programa llamado 'agregador' o lector de noticias.

Listado de blogs

« julio 2015 | Inicio | septiembre 2015 »

ExitEn los últimos años, diferentes estudios y artículos han resaltado la importancia de atraer talento en esta época de cambios acelerados. Dentro de una lógica basada en la innovación abierta las empresas están desarrollando estrategias para poder acceder al mejor talento a nivel global. Hace un par de años podíamos leer un interesante artículo de Jon Younger y Norm Smallwood para Harvard Business Review donde los autores hablaban de su libro sobre el “talento ágil”. En dicho artículo se explicaba que más de la mitad de los ejecutivos encuestados confirmaban que preferían apoyarse en el conocimiento de expertos externos, así como utilizar el talento de la nube. Los autores explicaban que el talento ágil puede tener un impacto enorme para las organizaciones pero resulta ser muy complejo de gestionar. Algunas de las recomendaciones que los autores nos daban para gestionar el talento ágil incluían construir una red de talento, potenciar el trabajo y las relaciones, gestionar la política y considerar a los proveedores de talento como aliados.

Atraer talento externo encaja perfectamente con esta nueva lógica dominante de la innovación abierta. Sin embargo, al poner tanto el foco en el talento externo algunas empresas están descuidando el talento interno. En un interesante artículo de Whitney Johnson para Harvard Business Review, la autora explica como algunas organizaciones están perdiendo a sus mejores empleados. Sucede que la mente humana está diseñada para aprender no solo cuando somos niños y niñas sino a lo largo de la vida. Cuando estamos aprendiendo alcanzamos mayores niveles de actividad cerebral lo que produce un efecto de bienestar mental. Sucede que nuestros cerebros quieren estar aprendiendo cosas constantemente. Whitney explica que cuando los empleados no pueden crecer y desarrollar su potencial empiezan a sentir que no importan para la organización. Por ello, el papel de los líderes a la hora de gestionar personas es tan importante. Si el talento siente que los líderes no están apostando por ellos se producirá un efecto muy negativo para la organización. El talento desconectará y dejará de estar implicado en el proyecto pudiendo incluso decidir abandonar la organización para buscar nuevos retos en proyectos externos. Para evitar este problema es importante que los líderes reconozcan que todos los empleados están dentro de distintas curvas de aprendizaje.

Todos los puestos de trabajo tienen un ciclo de vida que está directamente relacionado con una curva de aprendizaje. Cuando un empleado comienza un nuevo puesto está en la parte baja de la curva lo que supone lidiar con retos diarios. A medida que se avanza en la curva de aprendizaje se van adquiriendo competencias y confianza hasta un punto en el que se domina totalmente el puesto de trabajo. A partir de este punto de dominio o maestría del puesto de trabajo se iniciará un proceso de desmotivación debido a que la persona ya no tendrá tanto que aprender. Esto se acentuará si las tareas del puesto son repetibles y predecibles. Whitney estima que la máxima duración de la curva de aprendizaje para la mayoría de las personas es de cuatro años. A partir de este periodo, en el caso de que el empleado siga haciendo las mismas cosas de la misma manera empezará a desconectar e implicarse menos con ese puesto. Puede suceder que ante la imposibilidad de encontrar nuevos retos mentales dentro de la empresa, el empleado los tenga que buscar fuera. Por lo tanto, los buenos líderes serán aquellos que tengan en cuenta el factor de la curvas de aprendizaje de sus empleados. Los malos líderes no solo limitarán el crecimiento de sus empleados sino que reaccionaran mal cuando sus empleados busquen nuevos desafíos fuera de la empresa. Estos líderes se deberían preguntar la causa que ha llevado a sus empleados a perder el compromiso y la implicación en el proyecto. Sin embargo, lo que suele suceder en este punto es que el líder no asumirá que el origen del problema ha sido suyo al descuidar las curvas de aprendizaje y volcará la responsabilidad en el empleado.

A nivel de equipos de trabajo encontramos a los empleados distribuidos en diferentes curvas de aprendizaje. Al crear equipos los buenos líderes optimizan esas curvas de aprendizaje con una mezcla de personas. Un 15% de estas personas se encontrarían en el extremo inferior de la curva, comenzando a aprender nuevas habilidades. Un 70% se situarían en el punto dulce del compromiso del empleado. El 15% restante estaría en el nivel alto de maestría. A medida que se gestiona a los empleados a lo largo de la curva de aprendizaje, los buenos líderes hacen saltar a los que han llegado a la cima a nueva curva. Esta es una decisión que puede parecer contraproducente ya que estamos moviendo a los que más dominan el trabajo, sin embargo parece ser que es la mejor manera para alcanzar una organización con empleados con un mayor nivel de compromiso. La clave está en que los equipos también son máquinas de aprendizaje. A los equipos les gustan los desafíos, quieren aprender cómo resolverlos y una vez dominados desean emprender nuevos retos. En conclusión, los buenos líderes deben conocer todos los aspectos que influyen en la atracción y retención del talento externo e interno.

29 agosto, 2015 | 12:03

Digital Collage Star Wars Casas Colgadas Cuenca LGordon E. Moore cofundador de Intel y autor de la ley de Moore propuso en 1965 que el número de transistores integrados por unidad de superficie se duplicaba cada año. Posteriormente en 1975 modificó su ley empírica para cada 2 años y en 2007 decidió poner fecha de caducidad a su ley determinando que dejaría de cumplirse entre los años 2017 y 2022. La consecuencia más importante de la ley de Moore es que al mismo tiempo que aumentan las prestaciones de los ordenadores bajan sus precios para los consumidores.

En un interesante artículo de Irving Wladawsky-Berger para WSJ inspirado en una conversación de John Markoff para Edge con el título “The Next Wave” se explica que la ley de Moore ha funcionado durante 5 décadas pero parece que durante los 2 últimos años se está ralentizando. Si esto fuera cierto muchas de las previsiones tecnológicas (incluida la llegada de las máquinas inteligentes) no se cumplirían tal y como las habían planteado los expertos en los últimos años.

Uno de los libros que plantea la inminente llegada de las máquinas inteligentes es el libro de Ray Kurzweil del año 2005 “The singularity is Near: When Humans Transcend Biology”. El experto futurista, director de Google e impulsor de la Universidad de la Singularidad en Silicon Valley pronosticó que los avances exponenciales en la tecnología supondrían alcanzar la singularidad en el año 2045 fecha en la que la inteligencia de las máquinas sería mucho más potente que toda la inteligencia humana combinada. Esta idea es ampliamente compartida y como ejemplo es interesante leer un estudio realizado a expertos en Inteligencia Artificial en 2013 en el cual se estimaba un 50% de probabilidad de alcanzar una máquina inteligente de alto nivel para el año 2040 y una máquina superinteligente para el 2070. 

Sin embargo no todos piensan igual, el experto John Markoff considera que en el año 2045 las cosas no serán tan diferentes a lo que tenemos hoy en día y esto es debido a la desaceleración de la ley de Moore y los avances irregulares en el desarrollo de la Inteligencia Artificial. Los grandes avances alcanzados en algunas áreas de la Inteligencia Artificial, (reconocimiento de objetos, entendimiento del lenguaje humano) se empañan con la falta de avances en el desarrollo de una parte importante que es la cognición de las máquinas inteligentes. En otro artículo muy recomendable sobre el impacto que tendrán las máquinas inteligentes, Melody Guan explica que existe diversidad de opiniones sobre la evolución de la Inteligencia Artificial. El profesor de MIT David Autor considera que a corto y medio plazo las consecuencias de la robótica están sobreestimadas ya que los robots están muy limitados en términos de flexibilidad, adaptabilidad, autonomía y la habilidad de tomar decisiones independientes.

Explorando el tema desde otro punto de vista John Markoff explica que en el mundo digital sí se está experimentando un desarrollo exponencial. Esto es debido a la adopción masiva de Internet y la consecuencia es que la innovación está migrando a la creación de todo tipo de formas digitales, algoritmos y diseños cognitivos que dan algo de inteligencia a estas formas artificiales de vida. En otro artículo de Dominic Basulto para el Washington Post se propone que las tecnologías estarán embebidas en las personas como parte de la transformación de los humanos en sistemas operativos extendidos. Por su parte Ken Goldberg profesor de la Universidad de California en Berkeley propone la “multiplicidad” según la cual los humanos y las máquinas trabajarán en equipos integrados cada uno complementando las habilidades del otro.

En resumen parece que tenemos dos visiones sobre el avance de la Inteligencia Artificial. Por una parte los que piensan que las máquinas inteligentes y la singularidad tecnológica ocurrirán en unos 30 años. Por otra parte los que consideran que esto no ocurrirá hasta dentro de 50 años. Al mismo tiempo existe una alarma lógica sobre el desarrollo de robots asesinos con la carta abierta presentada por científicos, investigadores, académicos y figuras relevantes de la industria de la tecnología contra el desarrollo de armas de Inteligencia Artificial. Con relación a todo esto el filósofo Sueco Nick Bostrom director del Future of Humanity Institute de la Universidad de Oxford y cofundador del Institute of Ethics and Emerging Technologies argumentaba en mayo de este año que sopesando los beneficios y los riesgos sería una tragedia detener el desarrollo de la Inteligencia Artificial. En mi opinión el mensaje de Nick Bostrom tiene sentido pero es fundamental desarrollar robots responsables en vez de robots asesinos.

23 agosto, 2015 | 12:20

Digital Collage The Sentinel of Toledo LEl escritor británico Arthur C. Clarke autor de “2001: Una odisea del espacio” y “El centinela” propuso en 1962 y 1973 tres leyes relacionadas con el avance científico. La más conocida es la tercera “toda tecnología lo suficientemente avanzada es indistinguible de la magia”. También Isaac Asimov inspirado en conversaciones con John W. Campbell propuso en 1942 las tres leyes de la robótica sobre la protección y obediencia a humanos y su autoprotección.

En 2011 el Consejo de Investigación de Ingeniería y Ciencias Físicas (EPSRC) y el Consejo de Investigación de Artes y Humanidades (AHRC) de Gran Bretaña propusieron cinco principios éticos y siete mensajes para diseñadores, constructores y usuarios de robots en el mundo real. En estos días de alarma por el posible desarrollo de robots asesinos merece la pena recordar estas recomendaciones propuestas hace cinco años: 

  1. Los robots no deben ser diseñados para matar o dañar a los humanos
  2. Los seres humanos, no los robots, son los agentes responsables
  3. Los robots deben ser diseñados de forma que aseguren su protección y seguridad
  4. Los robots no deben ser diseñados para aprovecharse de los usuarios vulnerables al evocar una respuesta emocional o dependencia y siempre debe ser posible distinguir a un robot de un ser humano
  5. Debe ser posible averiguar quién es el responsable legal de un robot

Los mensajes son claros y hablan de ética, protección, seguridad y se anima a la investigación del robot responsable. Pero la pregunta que surge es si los robots están tan avanzados, ¿es todavía posible distinguir a un robot de un ser humano?. Para responder a esta cuestión se ha recurrido tradicionalmente al llamado test de Turing en referencia al famoso matemático británico Alan Turing considerado uno de los padres de la ciencia de la computación y que auguró en 1951 que en algún momento cabía esperar que las máquinas tomasen el control. En un interesante artículo de Philip Ball para la BBC se explica el propósito y la situación actual en relación a la famosa prueba. El test de Turing prueba la habilidad de una máquina para mostrar un comportamiento inteligente similar o indistinguible del de un humano. Claramente este test está relacionado con el cuarto principio ético de la EPSRC y AHRC.

La prueba original propone que si una máquina con inteligencia artificial puede hacer creer a los humanos que es también un humano entonces habrá pasado la prueba. Quizás la lógica de la prueba debería explorar dos vertientes, el nivel de inteligencia de la máquina y su nivel de apariencia humana. Con relación al primer asunto hace un año se anunciaba en una nota de prensa que Eugene Goostman (un chatbot robot programado para conversar de forma online) desarrollado en Rusia había logrado convencer al 33% de jueces de que era “genuinamente humano” según la Universidad de Reading que organizó la prueba. El anuncio de la superación del test generó muchas críticas y comentarios como la necesidad de actualizar el test de Turing con una prueba visual que pudiera medir el nivel de apariencia humana del robot.

Este segundo punto parece importante ya que artistas e investigadores como Mari Velonaki y David Silvera-Tawil están investigando en el Creative Robotics Lab de UNSW las reacciones de las personas al interactuar con robots de apariencia humana como con el robot hiperrealista “Geminoid F” creado hace varios años por Hiroshi Ishiguro. Parece que durante los primeros 3 ó 4 días resultaba estremecedor para el investigador sentir que alguien (el robot) estaba sentado en la habitación observándole. El profesor Hiroshi es el director del proyecto “Symbiotic Human-Robot Interaction Project” y está trabajando con otros robots hiperrealistas más modernos como “Erica”. Dentro de estas investigaciones es importante tener en cuenta el efecto “valle inquietante” que es un término acuñado por el profesor Masahiro Mori cuya hipótesis afirma que cuando las réplicas antropomórficas hiperrealistas de robots físicos o digitales se acercan en exceso a la apariencia y comportamiento de un ser humano real, pueden provocar una respuesta de rechazo entre los observadores humanos.

En otros casos y con robots no hiperrealistas se están consiguiendo muy buenos resultados para su uso en tareas sociales como el acompañamiento a personas mayores, terapias con niños autistas o el diagnóstico del Parkinson o el Alzheimer. Suena a ciencia ficción pero es el punto en el que nos encontramos en la actualidad por ello es fundamental no solo seguir las recomendaciones de los expertos con relación a los principios éticos de la robótica sino investigar los efectos que tendrán estos robots en las personas y en la sociedad.  

10 agosto, 2015 | 18:45

Digital Collage R2D2 and Pricess Leia at Plaza Callao LSi en el año 2014 el libro de Andrew McAfee y Erik Brynjolfsson “The Second Machine Age: Work, Progress and Prosperity in a Time of Brilliant Technologies” había generado un intenso debate sobre el impacto que tendrán las máquinas inteligentes en el empleo, en 2015 esta preocupación ha dado un salto cualitativo.

Estas últimas semanas podíamos leer varias noticias alertando sobre el peligro de una posible carrera armamentística por desarrollar máquinas inteligentes capaces de asesinar. Este temor ha llegado hasta el punto de que más de 16000 científicos, investigadores, académicos y figuras relevantes de la industria de la tecnología han firmado una carta abierta presentada durante la Conferencia Internacional Conjunta de Inteligencia Artificial en Buenos Aires contra el desarrollo de armas de Inteligencia Artificial. Entre los firmantes se encuentran personas muy conocidas en el mundo de la tecnología como Steve Wozniak cofundador de Apple, Demis Hassabis CEO de Google DeepMind, Yann LeCun de Facebook y Yoshua Bengio entre otros. Incluso Elon Musk (físico y emprendedor sudafricano que ha cofundado Paypal, SpaceX y Tesla Motors) y Stephen Hawking (el conocido científico británico) que también han firmado la carta nos previenen de que la Inteligencia Artificial puede ser nuestra mayor amenaza pudiendo llegar a terminar con la especie humana si no la manejamos con precaución.

¿Pero qué dice exactamente la carta presentada el 28 de julio de 2015? Con el título de “Armas autónomas: Una carta abierta de investigadores de Inteligencia artificial y robótica”, la carta explica que las armas autónomas capaces de seleccionar y atacar objetivos sin intervención humana serán factibles dentro de pocos años. Estas armas que se han descrito como la tercera revolución en la guerra no incluye los misiles o aviones a control remoto en los que los seres humanos realizan las decisiones de orientación.

La cuestión clave es si lo que se busca con el desarrollo de armas de Inteligencia Artificial es evitar guerras o iniciarlas. Si alguna potencia militar desarrolla armas de este tipo podemos decir que es inevitable una carrera armamentística y estas armas autónomas se convertirán en los Kalashnikovs del mañana. Y lo más preocupante es que a diferencia de las armas nucleares que son costosas y difíciles de desarrollar por la escasez de materias primas, en el caso de las armas autónomas estarán omnipresentes y serán baratas por lo que todas las potencias las podrán fabricar en serie. Estas armas que seguro aparecerán en el mercado negro y en manos de terroristas serán ideales para tareas como asesinatos, desestabilizado países y matando de forma selectiva a grupos étnicos. Por ello los firmantes de la carta consideran que una carrera de armas de Inteligencia Artificial no será beneficiosa para la humanidad. De la misma manera que la mayoría de químicos y biólogos han apoyado los acuerdos internacionales que han prohibido con éxito las armas químicas y biológicas, los firmantes de la carta buscan lo mismo, es decir promover la utilización de la Inteligencia Artificial en beneficio de la humanidad y no como el pistoletazo de salida para iniciar una carrera armamentística que no sabemos dónde nos puede llevar. La pregunta que surge a continuación es saber cuánto tiempo falta para alcanzar la Inteligencia Artificial.

Imagen de Paula Satrustegui

Paula Satrustegui profundizará en las novedades fiscales y relativas a la seguridad social, que afectan a la planificación de las finanzas personales de los profesionales.

Imagen de Belén Alarcón

Belén Alarcón trasladará su experiencia de asesoramiento patrimonial y planificación financiera a través de las preguntas más relevantes que debe plantearse una persona a lo largo de su vida.

Imagen de Enrique Borrajeros

Enrique Borrajeros escribirá sobre temas relativos a la relación entidad – asesor, finanzas conductuales y tendencias y novedades en el asesoramiento financiero nacional e internacional.

Imagen de Francisco Márquez de Prado

Francisco Márquez de Prado, analizará activos y productos financieros, con sus ventajas e inconvenientes, para cada tipo de inversor.

Imagen de Íñigo Petit

Íñigo Petit tratará temas relacionados con la evolución de la industria de fondos de inversión y planes de pensiones y aspectos relacionados con la educación financiera

© Prisa Digital S.L.- Gran Vía, 32 - Edificio Prisa - Madrid [España]