Sinopsis: El "pishing", un tipo de fraude virtual llegó a las criptomonedas. Por otro lado, los informes sobre el estado de salud de los animales que han participado en las pruebas de Neuralink vuelve a generar muchas dudas sobre la viabilidad de estos chips cerebrales, sobre todo si se quiere iniciar también el ensayo en humanos.Con el informe de estas y otras noticias sobre internet y nuevas tecnologías informa Bianca Vaquero en la sección "Cibertendencias".
Puntos destacados:
- El Comité de Médicos por una Medicina Responsable asegura que de los 23 monos utilizados para las pruebas de estos chips, al menos 15 murieron o fueron sacrificados, según registros abiertos de California a los que han tenido acceso. ha decidido responder con un comunicado oficial a la polémica, asegurando que cuidan a los animales de la "mejor manera ética" aunque admitiendo que sí se tuvieron que sacrificar hasta ocho animales.
- "Hola, bienvenido a la línea de prevención de seguridad de Coinbase" comienza diciendo una voz femenina al otro lado del teléfono. que estos bots están generando pérdidas sustanciales a las plataformas que sirven de intercambio de criptomonedas.
- de este tipo en la plataforma Coinbase, una de las más grandes, en la que la víctima acumulaba alrededor de $106.000 y ahora no puede acceder a su cuenta. Otras plataformas como OpenSea están reforzando la verificación de sus perfiles para proteger de estos ataques a los clientes.
- Este bot se llama OTP u one-time password (Contraseña de un solo uso) y apela a las técnicas más básicas de phishing impregnando miedo a las víctimas para que aporten la contraseña de sus cuentas criptográficas con rapidez, sin pararse a pensar, denuncia Q6 Cyber.
- Desde la firma de ciberseguridad explican que han identificado en el último medio año hasta seis canales de Telegram con más de 10.000 suscriptores en los que se venden estos bots.
- Según un se ha conseguido que sea practicamente imposible diferenciar un rostro generado por inteligencia artificial de uno real. El estudio menciona que el llamado efecto "uncanny valley" o valle inquietante ha sido de utilidad para los usuarios a la hora de comprobar si la persona de un vídeo o una imagen es, en realidad, un Deepfake. Los resultados de media demostraron que en algunos casos ni el 50% era capaz de distinguir un rostro real de uno falso.
Si quieres escuchar el informe completo, presiona la imagen principal.