Convertir la novedad en valor

Francisco González Bree

Convertir la Novedad en Valor es un blog de Francisco González Bree sobre la Creatividad, la Tecnología y la Innovación. El autor analiza el impacto actual de la innovación en el rendimiento de las empresas y los estándares de vida de las personas y observa las necesidades del mercado y las tecnologías en un futuro no muy lejano.

Luis Ferrándiz

Francisco González Bree es Doctor en Business Administration y trabaja en la actualidad como director académico del Master in Business Innovation (MBI) de Deusto Business School. Colaboró como Director de Marketing en Anboto nombrada mejor start up del mundo en 2010 y en Sher.pa. Ha trabajado más de 15 años en puestos directivos en multinacionales y más de 6 años ayudando como tutor y mentor a decenas de empresas de todos los tamaños y sectores con sus planes y modelos de negocio.

mayo 2017

lun. mar. mié. jue. vie. sáb. dom.
1 2 3 4 5 6 7
8 9 10 11 12 13 14
15 16 17 18 19 20 21
22 23 24 25 26 27 28
29 30 31        

Suscríbete a RSS

¿Qué es RSS? Es una tecnología que envía automáticamente los titulares de un medio a un programa lector o agregador. Para utilizar las fuentes RSS existen múltiples opciones. La más común consiste en instalar un programa llamado 'agregador' o lector de noticias.

Listado de blogs

« julio 2016 | Inicio | septiembre 2016 »

InfectedHace una semana podíamos leer un interesante artículo de Nidhi Singh para Entrepreneur sobre los posibles futuros impactos negativos de la tecnología para la humanidad. Una de las personas que nos viene alertando desde hace algún tiempo sobre estos peligros es Stephen Hawking que opina que los avances de la Inteligencia Artificial pueden ser nuestra mayor amenaza, pudiendo llegar a terminar con la especie humana si no la manejamos con precaución. Por su parte, Jack Ma el fundador y presidente ejecutivo de Alibaba Group, nos alertaba este año de que en los próximos 30 años el mundo podrá tener mucho más dolor que felicidad debido al auge de la Inteligencia Artificial y mayor expectativa de vida de las personas.

Esta misma semana el mundo sufría un ciberataque a escala mundial afectando a instituciones y empresas de unos 150 países. Este impactante ataque cibernético afectó el normal funcionamiento de empresas y hospitales por medio del virus ransomware WannaCry. Los expertos coinciden en que los daños provocados por el ciberataque del viernes no son graves pero nos alertan de que se puede extender en los próximos días. Es lógico apreciar que la sociedad en general está cada vez más sensibilizada hacia esta amenaza potencial que algunos expertos elevan a la posibilidad de una futura ciberguerra mundial. En este supuesto extremo, la ciberguerra podría afectar infraestructuras críticas de sectores como la energía, el agua, el sistema financiero o la alimentación.

Hace un año podíamos leer en un artículo para Quartz que los ciberataques a infraestructuras críticas se habían multiplicado por 20 en cuatro años. Warren Buffett, inversor y empresario estadounidense, argumentaba que aunque en el corto plazo podemos evitar posibles ataques informáticos, biológicos y nucleares, en el medio y largo plazo es más complicado. El magnate explicaba en dicho artículo que mientras en un año sólo existe una posibilidad entre treinta de que suframos un ataque de este tipo, sin embargo a lo largo de 100 años la probabilidad de que ocurra alcanza el 96,6%. Son muchas las voces que nos están alertando. Hace tres años, más de 16.000 científicos, investigadores, académicos y figuras relevantes de la industria de la tecnología firmaron una carta abierta contra el desarrollo de armas de Inteligencia Artificial. Entre los firmantes se encuentran personas muy conocidas en el mundo de la tecnología, como Steve Wozniak o Elon Musk avisándonos de que la Inteligencia Artificial puede ser nuestra mayor amenaza pudiendo llegar a terminar con la especie humana si no la manejamos con precaución.

En un interesante artículo de John Naughton para The Guardian, el autor explicaba hace un año que las sociedades modernas están construidas sobre una combinación de individualismo, derechos humanos, democracia y libertad de mercado. Según el autor, estos cuatro pilares están siendo arrasados por la ciencia y la tecnología. La libertad individual es una ilusión generada por una mezcla de algoritmos bioquímicos ensamblados. Asimismo, no existe una voluntad propia real ya que el abanico de posibilidades está determinado por otros hasta el punto de que los grandes tecnológicos como Google, Facebook o Amazon saben con antelación nuestros deseos conscientes e incluso los inconscientes. El autor menciona en su artículo al historiador Yuval Noah Harari autor del libro Sapiens, una breve historia de la humanidad. Harari considera que, en la actualidad, vivimos una crisis existencial y es probable que la Inteligencia Artificial agrande mucho más el problema de la desigualdad haciendo que gran parte de la humanidad acabe siendo inútil mientras el poder y la riqueza estará en manos de una pequeña élite dueña de la Inteligencia Artificial. Parece lógico pensar que serán sobre todo los ricos y los poderosos los que acabarán beneficiándose en gran medida de los progresos tecnológicos y biológicos.

Sin embargo no todas las voces son negativas. En un interesante artículo de Will Knight para MIT Technology Review el autor se hacía eco de un interesante estudio de la Universidad de Stanford (EEUU) en el que se pretende ir evaluando la evolución y el impacto de la Inteligencia Artificial en la humanidad a lo largo de 100 años. El estudio ha contado con la colaboración de más de 20 expertos en disciplinas como la Inteligencia Artificial, la informática o la robótica por mencionar algunas de ellas. El informe explora en detalle el impacto de la Inteligencia Artificial en el transporte, hogar, salud, educación, comunidades con menos recursos, seguridad, privacidad, empleo y entretenimiento. La conclusión principal del estudio de la Universidad de Stanford es que la lnteligencia Artificial no supondrá (por lo menos hasta el año 2030) una amenaza inminente para la humanidad y por ello no existen motivos para preocuparse a corto plazo. Sin embargo, debemos tomarnos muy en serio nuestro progreso a medio y largo plazo impulsando los derechos humanos, la cultura de paz y los valores democráticos para construir sociedades más justas y equitativas.

19 agosto, 2016 | 13:57

PacoBree Collage SingularityRecientemente podíamos leer un artículo de Greg Satell para Forbes proponiendo que la singularidad tecnológica está cerca. Básicamente la singularidad tecnológica es el momento hipotético en el que el desarrollo exponencial de la tecnología desencadenará un crecimiento fuera de control que resultará en un momento de máxima incertidumbre para la civilización humana. El famoso matemático británico Alan Turing, considerado uno de los padres de la ciencia de la computación, ya realizó una predicción en el año 1951 augurando que en algún momento cabía esperar que las máquinas tomasen el control. En los últimos 60 años distintos expertos matemáticos y científicos como John von Neumann y Stanislaw Ulam se han interesado por la singularidad tecnológica. También el autor de ciencia ficción Vernor Vinge publicó un artículo muy referenciado sobre la singularidad tecnológica titulado “The Coming Technological Singularity: How to Survive in the Post-Human Era”. Vernor abordaba temas como la inteligencia superhumana, redes computacionales, interfaces cerebro-máquina y ciencia biológica haciéndonos reflexionar sobre las limitaciones del conocimiento humano y el desarrollo autónomo de la inteligencia artificial.

En los últimos 10 años una persona que ha profundizado en la singularidad tecnológica es el polímata Raymond Kurzweil que es inventor, músico, escritor, empresario  y científico especializado en inteligencia artificial. Desde hace 4 años es también director de ingeniería de Google. Su obra se caracteriza por haber realizado predicciones sobre el futuro de la humanidad en los libros “La era de las máquinas inteligentes, 1990” y “La era de las máquinas espirituales, 1999”. En este segundo libro Kurzweil propuso la "ley de rendimientos acelerados" en relación a los incrementos en las tasas de progresos tecnológicos y sus impactos. Su último libro “La singularidad está cerca, 2006” es el que conecta directamente con el título del artículo de Greg Satell mencionado al inicio en el que el autor justifica tres razones que nos acercan a la singularidad tecnológica. 

La primera clave está relacionada con la deceleración de la ley de Moore. Gordon E. Moore, cofundador de Intel y autor de la ley de Moore, propuso en 1965 que el número de transistores integrados por unidad de superficie se duplicaba cada año. En 1975 modificó su ley para cada 2 años y en 2007 decidió poner fecha de caducidad a su ley determinando que dejaría de cumplirse entre los años 2017 y 2022. La consecuencia más importante de la ley de Moore es que al mismo tiempo que aumentan las prestaciones de los ordenadores bajan sus precios para los consumidores. En un interesante artículo de Aaron Frank para Wired se explica que la ralentización de la ley de Moore en el fondo ayudará al desarrollo de la inteligencia artificial. Aaron explicá que la ITRS (International Technology Roadmap for Semiconductors) que cuenta con empresas como Intel y Samsung estima que para el año 2021 la ley de Moore ya no será efectiva. Esto provocará un salto cualitativo en el desarrollo tecnológico, desde máquinas de inteligencia artificial a máquinas de inteligencia natural con sistemas auto-evolutivos inspirados en modelos biológicos. Por ello Kurzweil propone una métrica diferente que mida el rendimiento tecnológico en base al número de cálculos por cada 1000 dólares americanos. También sugiere el avance hacia la computación cuántica que hará posibles nuevos algoritmos y el desarrollo de chips neuromórficos que tomarán el cerebro como modelo.

La segunda clave es que los robots ya están haciendo el trabajo de humanos. El primer robot industrial se introdujo en la línea  de montaje de GM en el año 1962. Barclays instaló el primer cajero automático en el año 1967. Desde entonces la automatización no ha parado. El libro de Andrew McAfee y Erik Brynjolfsson generaba hace un par de años un importante debate sobre el impacto que tendrá la tecnología en el empleo. El libro, titulado The Second Machine Age: Work, Progress and Prosperity in a Time of Brilliant Technologies, aborda un tema que sigue creciendo en interés. En un estudio de la Universidad de Oxford del año 2013 se propone que la mitad de los trabajos en Estados Unidos serán automatizados durante las dos próximas décadas. Sin embargo, tal cómo explica Mynul Khan en un interesante artículo la llegada de los robots creará muchos empleos nuevos para los humanos. Por otra parte, los robots no tienen todavía la capacidad de realizar tareas complejas como la negociación o la persuasión y no son tan eficientes en la generación de nuevas ideas. Esto significa que los trabajos que requieran creatividad, inteligencia emocional y habilidades sociales no podrán ser automatizados en el corto plazo.

La tercera clave es que en la actualidad estamos editando genes. En un interesante artículo de Albert Cortina y Miquel-Àngel Serra de principios de este año para el País se explican los retos que traerán el desarrollo de la inteligencia artificial y la convergencia de las tecnologías NBIC (Nanotecnología, Biotecnología, Tecnologías de la Información y de la Comunicación y Neuro-Cognitivas). Los autores abordan algunos de los retos filosóficos, morales e incluso espirituales de la ideología transhumanista. El futurista Kurzweil predice que la singularidad llevará a una fusión entre tecnología e inteligencia humana. Durante el proceso se propone el “mejoramiento humano” según el cual las personas adoptarían mejoras artificiales (genéticas, orgánicas y tecnológicas) avanzando hacia una superinteligencia a la que los humanos estarían conectados.

Esta semana  podíamos leer un artículo de Jessica Conditt para engadget en el que se explica que algunos expertos como Kurzweil prevén alcanzar la singularidad en algún punto entre el 2030 y el 2045. Sin embargo algunas predicciones de otros investigadores que analizan el tema son menos optimistas. Según un estudio con expertos en inteligencia artificial en 2013 se estima que hay un 50% de probabilidad de alcanzar una máquina inteligente de alto nivel para el año 2040 y una máquina superinteligente para el 2070. El filósofo Sueco Nick Bostrom, director del Future of Humanity Institute de la Universidad de Oxford y cofundador del Institute of Ethics and Emerging Technologies, argumentaba hace un año sopesando los beneficios y los riesgos que en cualquier caso sería una tragedia detener el desarrollo de la inteligencia artificial. Coincido con la idea de Nick pero es fundamental intentar entender los impactos positivos y negativos que tendrán estos avances para intentar alcanzar en todo momento un mundo mejor, tema sobre el que reflexionaremos en la tercera parte de estos artículos.

Imagen de Paula Satrustegui

Paula Satrustegui profundizará en las novedades fiscales y relativas a la seguridad social, que afectan a la planificación de las finanzas personales de los profesionales.

Imagen de Belén Alarcón

Belén Alarcón trasladará su experiencia de asesoramiento patrimonial y planificación financiera a través de las preguntas más relevantes que debe plantearse una persona a lo largo de su vida.

Imagen de Enrique Borrajeros

Enrique Borrajeros escribirá sobre temas relativos a la relación entidad – asesor, finanzas conductuales y tendencias y novedades en el asesoramiento financiero nacional e internacional.

Imagen de Francisco Márquez de Prado

Francisco Márquez de Prado, analizará activos y productos financieros, con sus ventajas e inconvenientes, para cada tipo de inversor.

Imagen de Íñigo Petit

Íñigo Petit tratará temas relacionados con la evolución de la industria de fondos de inversión y planes de pensiones y aspectos relacionados con la educación financiera

© Prisa Digital S.L.- Gran Vía, 32 - Edificio Prisa - Madrid [España]