En este contexto de mercado, productos de rendimiento sobre activos digitales están siendo utilizados para optimizar capital → Explorar alternativas disponibles.
Espacio patrocinadoEl lunes, el cofundador de Ethereum, Vitalik Buterin, reflexionó en su blog personal sobre su propia visión del «tecno-optimismo», inspirado en el manifiesto «Tecno-optimista» de Marc Andreessen, publicado en octubre que se basó en el futuro de la tecnología de inteligencia artificial (IA). No obstante, a pesar de que Buterin estuvo de acuerdo con la perspectiva de Andreessen, el cofundador de Ethereum, señaló la importancia de cómo se debe desarrollar correctamente la IA.
En una publicación de blog titulada como «My techno-optimism», Buterin, argumentó que la tecnología de inteligencia artificial es «fundamentalmente diferente de otros inventos», como las redes sociales, los aviones, las armas, la rueda y la imprenta. Esto debido a que la IA puede crear un nuevo tipo de «mente» que podría volverse contra los intereses humanos.
«La IA se trata de un nuevo tipo de mente que está ganando inteligencia rápidamente, y que tiene serias posibilidades de superar las facultades mentales de los humanos y convertirse en la nueva especie ápice del planeta». Indicó Buterin.
Además, Buterin también expresó que, a diferencia del cambio climático, una pandemia provocada por el hombre o una guerra nuclear, una IA superinteligente podría potencialmente acabar con la humanidad y no dejar supervivientes, especialmente si considera a los humanos como una amenaza a su supervivencia.
«Incluso Marte podría no ser seguro, si una IA superinteligente se vuelve contra la humanidad podría acabar con nosotros para siempre». Advirtió Buterin.
Por otro lado, el cofundador de Ethereum citó una encuesta llevada a cabo en agosto del 2022 y realizada a más de 4.270 investigadores de aprendizaje automático, en la que se pronosticó que hay entre un 5% y un 10% de posibilidades de que una IA aniquile a la humanidad.
Las interfaces cerebro-computadora (BCI) basas en IA, podrían ser el futuro de la tecnología humana
No obstante, Vitalik Buterin hizo énfasis en que sus afirmaciones son en su mayoría «extremas», indicando que también hay formas en que los humanos pueden prevalecer junto a las IA. Para ello, Buterin sugirió integrar las interfaces cerebro-computadora (BCI) para ofrecer a los humanos más control sobre las capacidades computacionales y cognitivas basadas en IA.
Cabe destacar que un BCI es una vía de comunicación entre la actividad eléctrica del cerebro y un dispositivo externo. Esto, sería como una computadora o chip conectado directamente a nuestra actividad neuronal.

Según los expertos, una BCI reduciría el tiempo de comunicación bidireccional entre el hombre y la máquina de segundos a milisegundos. Además, se garantizaría que los humanos conserven cierto grado de «influencia significativa sobre el mundo».
Asimismo, Buterin argumentó que esta ruta sería la más segura, ya que los humanos podrían participar conscientemente en cada decisión tomada por la máquina IA.
«Podemos reducir el incentivo para traspasar la responsabilidad de planificación de alto nivel a la propia IA y, por lo tanto, reducir la posibilidad de que la IA haga por sí sola algo totalmente no alineado con los valores de la humanidad». Indicó Buterin.
Finalmente, Vitalik Buterin concluyó en su blog que nosotros, los humanos, «somos la estrella más brillante», ya que hemos desarrollado nuestra tecnología para expandir el potencial humano durante miles de años.
«Dentro de dos mil millones de años, si la Tierra o cualquier parte del universo todavía conserva la belleza de la vida terrestre, serán los artificios humanos, como los viajes espaciales y la geo ingeniería, los que lo habrán hecho posible». Expresó Buterin.
