Convertir la novedad en valor

Francisco González Bree

Convertir la Novedad en Valor es un blog de Francisco González Bree sobre la Creatividad, la Tecnología y la Innovación. El autor analiza el impacto actual de la innovación en el rendimiento de las empresas y los estándares de vida de las personas y observa las necesidades del mercado y las tecnologías en un futuro no muy lejano.

Luis Ferrándiz

Francisco González Bree es Doctor en Business Administration y trabaja en la actualidad como director académico del Master in Business Innovation (MBI) de Deusto Business School. Colaboró como Director de Marketing en Anboto nombrada mejor start up del mundo en 2010 y en Sher.pa. Ha trabajado más de 15 años en puestos directivos en multinacionales y más de 6 años ayudando como tutor y mentor a decenas de empresas de todos los tamaños y sectores con sus planes y modelos de negocio.

julio 2017

lun. mar. mié. jue. vie. sáb. dom.
          1 2
3 4 5 6 7 8 9
10 11 12 13 14 15 16
17 18 19 20 21 22 23
24 25 26 27 28 29 30
31            

Suscríbete a RSS

¿Qué es RSS? Es una tecnología que envía automáticamente los titulares de un medio a un programa lector o agregador. Para utilizar las fuentes RSS existen múltiples opciones. La más común consiste en instalar un programa llamado 'agregador' o lector de noticias.

Listado de blogs

« julio 2016 | Inicio | septiembre 2016 »

LighthouseEsta semana hemos podido leer varios artículos sobre la preocupación que están provocando los avances tecnológicos en algunos sectores de la sociedad. James Heskett detallaba en un artículo para Forbes India que varios autores han llamado la atención de personas influyentes en el mundo de la tecnología como Bill Gates o Mark Zuckergerg. Uno de estos autores es Yuval Noah Harari con sus libros Sapiens: A brief History of Humankind y su nuevo libro Homo Deus. Según Harari, desde la aparición de la vida hace unos mil millones de años nunca una sola especie ha cambiado la ecología global por sí misma. Ahora la humanidad es capaz de reemplazar la selección natural con el diseño inteligente y extender la vida. Estas capacidades son tan disruptivas que pueden provocar grandes controversias políticas e incluso religiosas.

Harari considera que vivimos una crisis existencial y es probable que la Inteligencia Artificial agrande mucho más el problema de la desigualdad. Esto podría provocar que gran parte de la humanidad acabase siendo inútil mientras el poder y la riqueza estaría en manos de una pequeña élite dueña de la Inteligencia Artificial. Parece lógico pensar que en este escenario serían sobre todo los ricos y los poderosos los que acabarían beneficiándose en gran medida de los progresos tecnológicos y biológicos.

Hace tres años, más de 16.000 científicos, investigadores, académicos y figuras relevantes de la industria de la tecnología firmaron una carta abierta contra el desarrollo de armas de Inteligencia Artificial. Entre los firmantes se encontraban personas muy conocidas en el mundo de la tecnología tales como como Elon Musk, Stephen Hawking, Steve Wozniak, Bill Gates y Satya Nadella  que nos avisaban que la Inteligencia Artificial podría ser nuestra mayor amenaza pudiendo llegar a terminar con la especie humana si no la manejamos con precaución. Incluso Jack Ma, el fundador y presidente ejecutivo de Alibaba Group, nos alertaba de que en los próximos 30 años el mundo podrá tener mucho más dolor que felicidad debido al auge de la Inteligencia Artificial y a la mayor expectativa de vida de las personas.

Pero no todas las vistas son negativas. Otra autora mencionada en el artículo es Diane Ackerman que en su libro The Human Age explica como los humanos están trabajando para salvar el planeta. Los humanos somos la fuerza dominante que moldea el futuro de la tierra. Según Diane hemos sometido el 75% se la superficie terrestre e incluso hemos alterado el clima amenazando nuestra propia existencia. Sin embargo, nuestras capacidades pueden ser también positivas. Recolectamos el ADN de las especies desaparecidas en un “arca congelada” e inventamos un sinfín de prodigios industriales y médicos. Por ejemplo, en Harvard hay un proyecto para transformar el genoma de un elefante en el de un Mamut. El objetivo final sería traer de vuelta especies ya extinguidas.

En un interesante artículo de Will Knight para MIT Technology Review, el autor se hacía eco de un notable estudio de la Universidad de Stanford (EEUU) en el que se pretende ir evaluando la evolución y el impacto de la Inteligencia Artificial en la humanidad a lo largo de 100 años. El estudio ha contado con la colaboración de más de 20 expertos en disciplinas como la Inteligencia Artificial, la informática o la robótica por mencionar algunas de ellas. El informe explora en detalle el impacto de la Inteligencia Artificial en el transporte, hogar, salud, educación, comunidades con menos recursos, seguridad, privacidad, empleo y entretenimiento. La conclusión principal del estudio de la Universidad de Stanford es que la lnteligencia Artificial no supondrá (por lo menos hasta el año 2030) una amenaza inminente para la humanidad y por ello no existen motivos para preocuparse a corto plazo. Sin embargo, debemos tomarnos muy en serio nuestro progreso a medio y largo plazo impulsando los derechos humanos, la cultura de paz y los valores democráticos para construir sociedades más justas y equitativas.

Mientras encontramos opiniones a favor y en contra del desarrollo tecnológico, en el mundo empresarial la estrategia de la inacción parece que no es una buena alternativa. En un interesante artículo de Lisa Kay Solomon para SingularityHub, la autora explica que los directivos de las empresas de hoy en día deben desarrollar habilidades de liderazgo que incluyan la prospectiva, la tecnología, la innovación y el humanismo. Su argumento es que todos los líderes pueden mejorar el mundo pero para ello también es importante entender las amenazas que nos puede deparar los desarrollos tecnológicos sin control. Por lo tanto, debemos tomarnos muy en serio nuestro progreso a medio y largo plazo entendiendo mejor la tecnología, impulsando los derechos humanos, la cultura de paz y los valores democráticos para construir sociedades más justas y equitativas.

19 agosto, 2016 | 13:57

PacoBree Collage SingularityRecientemente podíamos leer un artículo de Greg Satell para Forbes proponiendo que la singularidad tecnológica está cerca. Básicamente la singularidad tecnológica es el momento hipotético en el que el desarrollo exponencial de la tecnología desencadenará un crecimiento fuera de control que resultará en un momento de máxima incertidumbre para la civilización humana. El famoso matemático británico Alan Turing, considerado uno de los padres de la ciencia de la computación, ya realizó una predicción en el año 1951 augurando que en algún momento cabía esperar que las máquinas tomasen el control. En los últimos 60 años distintos expertos matemáticos y científicos como John von Neumann y Stanislaw Ulam se han interesado por la singularidad tecnológica. También el autor de ciencia ficción Vernor Vinge publicó un artículo muy referenciado sobre la singularidad tecnológica titulado “The Coming Technological Singularity: How to Survive in the Post-Human Era”. Vernor abordaba temas como la inteligencia superhumana, redes computacionales, interfaces cerebro-máquina y ciencia biológica haciéndonos reflexionar sobre las limitaciones del conocimiento humano y el desarrollo autónomo de la inteligencia artificial.

En los últimos 10 años una persona que ha profundizado en la singularidad tecnológica es el polímata Raymond Kurzweil que es inventor, músico, escritor, empresario  y científico especializado en inteligencia artificial. Desde hace 4 años es también director de ingeniería de Google. Su obra se caracteriza por haber realizado predicciones sobre el futuro de la humanidad en los libros “La era de las máquinas inteligentes, 1990” y “La era de las máquinas espirituales, 1999”. En este segundo libro Kurzweil propuso la "ley de rendimientos acelerados" en relación a los incrementos en las tasas de progresos tecnológicos y sus impactos. Su último libro “La singularidad está cerca, 2006” es el que conecta directamente con el título del artículo de Greg Satell mencionado al inicio en el que el autor justifica tres razones que nos acercan a la singularidad tecnológica. 

La primera clave está relacionada con la deceleración de la ley de Moore. Gordon E. Moore, cofundador de Intel y autor de la ley de Moore, propuso en 1965 que el número de transistores integrados por unidad de superficie se duplicaba cada año. En 1975 modificó su ley para cada 2 años y en 2007 decidió poner fecha de caducidad a su ley determinando que dejaría de cumplirse entre los años 2017 y 2022. La consecuencia más importante de la ley de Moore es que al mismo tiempo que aumentan las prestaciones de los ordenadores bajan sus precios para los consumidores. En un interesante artículo de Aaron Frank para Wired se explica que la ralentización de la ley de Moore en el fondo ayudará al desarrollo de la inteligencia artificial. Aaron explicá que la ITRS (International Technology Roadmap for Semiconductors) que cuenta con empresas como Intel y Samsung estima que para el año 2021 la ley de Moore ya no será efectiva. Esto provocará un salto cualitativo en el desarrollo tecnológico, desde máquinas de inteligencia artificial a máquinas de inteligencia natural con sistemas auto-evolutivos inspirados en modelos biológicos. Por ello Kurzweil propone una métrica diferente que mida el rendimiento tecnológico en base al número de cálculos por cada 1000 dólares americanos. También sugiere el avance hacia la computación cuántica que hará posibles nuevos algoritmos y el desarrollo de chips neuromórficos que tomarán el cerebro como modelo.

La segunda clave es que los robots ya están haciendo el trabajo de humanos. El primer robot industrial se introdujo en la línea  de montaje de GM en el año 1962. Barclays instaló el primer cajero automático en el año 1967. Desde entonces la automatización no ha parado. El libro de Andrew McAfee y Erik Brynjolfsson generaba hace un par de años un importante debate sobre el impacto que tendrá la tecnología en el empleo. El libro, titulado The Second Machine Age: Work, Progress and Prosperity in a Time of Brilliant Technologies, aborda un tema que sigue creciendo en interés. En un estudio de la Universidad de Oxford del año 2013 se propone que la mitad de los trabajos en Estados Unidos serán automatizados durante las dos próximas décadas. Sin embargo, tal cómo explica Mynul Khan en un interesante artículo la llegada de los robots creará muchos empleos nuevos para los humanos. Por otra parte, los robots no tienen todavía la capacidad de realizar tareas complejas como la negociación o la persuasión y no son tan eficientes en la generación de nuevas ideas. Esto significa que los trabajos que requieran creatividad, inteligencia emocional y habilidades sociales no podrán ser automatizados en el corto plazo.

La tercera clave es que en la actualidad estamos editando genes. En un interesante artículo de Albert Cortina y Miquel-Àngel Serra de principios de este año para el País se explican los retos que traerán el desarrollo de la inteligencia artificial y la convergencia de las tecnologías NBIC (Nanotecnología, Biotecnología, Tecnologías de la Información y de la Comunicación y Neuro-Cognitivas). Los autores abordan algunos de los retos filosóficos, morales e incluso espirituales de la ideología transhumanista. El futurista Kurzweil predice que la singularidad llevará a una fusión entre tecnología e inteligencia humana. Durante el proceso se propone el “mejoramiento humano” según el cual las personas adoptarían mejoras artificiales (genéticas, orgánicas y tecnológicas) avanzando hacia una superinteligencia a la que los humanos estarían conectados.

Esta semana  podíamos leer un artículo de Jessica Conditt para engadget en el que se explica que algunos expertos como Kurzweil prevén alcanzar la singularidad en algún punto entre el 2030 y el 2045. Sin embargo algunas predicciones de otros investigadores que analizan el tema son menos optimistas. Según un estudio con expertos en inteligencia artificial en 2013 se estima que hay un 50% de probabilidad de alcanzar una máquina inteligente de alto nivel para el año 2040 y una máquina superinteligente para el 2070. El filósofo Sueco Nick Bostrom, director del Future of Humanity Institute de la Universidad de Oxford y cofundador del Institute of Ethics and Emerging Technologies, argumentaba hace un año sopesando los beneficios y los riesgos que en cualquier caso sería una tragedia detener el desarrollo de la inteligencia artificial. Coincido con la idea de Nick pero es fundamental intentar entender los impactos positivos y negativos que tendrán estos avances para intentar alcanzar en todo momento un mundo mejor, tema sobre el que reflexionaremos en la tercera parte de estos artículos.

Imagen de Paula Satrustegui

Paula Satrustegui profundizará en las novedades fiscales y relativas a la seguridad social, que afectan a la planificación de las finanzas personales de los profesionales.

Imagen de Belén Alarcón

Belén Alarcón trasladará su experiencia de asesoramiento patrimonial y planificación financiera a través de las preguntas más relevantes que debe plantearse una persona a lo largo de su vida.

Imagen de Enrique Borrajeros

Enrique Borrajeros escribirá sobre temas relativos a la relación entidad – asesor, finanzas conductuales y tendencias y novedades en el asesoramiento financiero nacional e internacional.

Imagen de Francisco Márquez de Prado

Francisco Márquez de Prado, analizará activos y productos financieros, con sus ventajas e inconvenientes, para cada tipo de inversor.

Imagen de Íñigo Petit

Íñigo Petit tratará temas relacionados con la evolución de la industria de fondos de inversión y planes de pensiones y aspectos relacionados con la educación financiera

© Prisa Digital S.L.- Gran Vía, 32 - Edificio Prisa - Madrid [España]