Passkeys: Good or Bad?
Plexus | Crowdsourced de-Googled Android apps status ratings
How Threads’ Privacy Policy Compares to Twitter’s (and Its Rivals’)
Snappy: A tool to detect rogue WiFi access points on open networks
+Link
Shortened URL Security / safecomputing.umich.edu
Use the shortening service preview feature. Type the shortened URL in the address bar of your web browser and add the characters described below to see a preview of the full URL:
tinyurl.com. Between the "http://" and the "tinyurl," type preview.
Example: http://preview.tinyurl.com/zn7xnzu
bit.ly. At the end of the URL, type a +.
Example: http://bit.ly/2lgPesi+
goo.gl. At the end of the URL, type a +.
Example: https://goo.gl/vLfoaW+
Use a URL checker. These are just a few of the sites that let you enter a short URL and then see the full URL:
getlinkinfo.com
unshorten.it
urlxray.com
MagLit🔥
How to Apply MITRE ATT&CK to Your Organization
Should You Use GrapheneOS or CalyxOS? - Privacy Guides
Warp – Apps for GNOME
Lokinet | Anonymous internet access
Se achica el debate democrático
The Truffle Pig's Guide to Source Discovery in OSINT | HackerNoon
Stalkerware Vendor Hacked
Malicious Artificial Intelligence Enables Deepfake Kidnapping Scam | HackerNoon
The Password Game
AntennaPod – El Reproductor de Podcast Abierto
The real cost of a security breach
101 games for trainers a collection of the best activities from Creative training techniques newsletter (Pike, Robert W. Busse, Christopher).epub
Things parents should consider before posting their children’s photos online
Las imágenes realistas pero falsas de abuso sexual infantil hechas por IA
Los expertos en seguridad infantil se sienten cada vez más impotentes para impedir que, con inteligencia artificial, se creen fácilmente miles de imágenes de menores de edad en actividades sexuales y después se compartan en foros de pedófilos de la dark web, según informa The Washington Post.
Los contenidos nocivos hechos con inteligencia artificial también contribuyen a revictimizar a cualquier persona cuyas imágenes de abusos anteriores se utilicen para entrenar modelos de IA que generen fotos falsas.
podría contribuir a normalizar la explotación sexual infantil, atraer a más niños a situaciones de riesgo y dificultar la labor de las fuerzas de seguridad para encontrar a menores de edad que son víctimas reales de estos delitos
“Aproximadamente el 80% de los encuestados” en un sondeo publicado en un foro de la dark web con 3,000 miembros, afirmaron que “habían utilizado o tenían intención de usar herramientas de IA para crear imágenes de abusos sexuales a menores”
funcionarios del Departamento de Justicia de Estados Unidos manifestaron al Post que las imágenes de IA que sexualizan a menores de edad siguen violando las leyes federales de protección de la infancia.
Stability AI, creadora de Stable Diffusion, no registra todas las imágenes de su servicio, como hacen otras herramientas de inteligencia artificial como Midjourney y DALL-E.
Stability AI declaró al Post que prohíbe la creación de contenidos obscenos, coopera con las fuerzas de seguridad para localizar a los infractores de sus políticas y “ha eliminado el material explícito de sus datos de entrenamiento”
“cualquiera puede descargar” Stable Diffusion “a su computadora y ejecutarlo como quiera”
los filtros de imágenes explícitas, pueden eludirse fácilmente con solo añadir unas pocas líneas de código, algo que, al parecer, los usuarios aprenden para este fin leyendo una guía de la dark web sobre el uso de herramientas de IA.
El FBI instó a los padres a ser conscientes de los peligros, limitar lo que comparten los menores y supervisar quién puede ver sus contenidos en internet
Una ley “prohíbe a cualquier persona producir, distribuir, recibir o poseer conscientemente con intención de transferir o difundir, representaciones visuales, como dibujos, caricaturas o pinturas, que aparenten representar a menores de edad en conductas sexualmente explícitas y se consideren obscenas”.
otra ley “define la pornografía infantil como cualquier representación visual de una conducta sexualmente explícita en la que participe un menor de edad”
comercio ilegal de contenido de abuso sexual infantil (CSAM, por sus siglas en inglés).
innovar soluciones, como imprimir un código en las imágenes de IA para que los creadores estén siempre vinculados a sus contenidos. Esto podría disuadir a algunos de realizar material ofensivo.
demás, existe una propuesta mucho más delicada que solo prosperaría con la aprobación del gobierno. Las compañías entrenarían modelos de inteligencia artificial con imágenes falsas de explotación sexual infantil para crear sistemas de detección más sofisticados. Sin embargo, sin las medidas de protección adecuadas, esta opción daría lugar a que las empresas desarrollaran modelos de IA mucho mejores para generar imágenes aún más realistas.
detectado “contenidos que migran de los foros de la dark web a la red común” y ha encontrado “numerosos ejemplos” en “las principales plataformas de redes sociales”.
Signnal Usernames Unofficial Wiki
Password Meter - A visual assessment of password strengths and weaknesses
Deepfake Porn Reveals a ‘Pervert’s Dilemma' | WIRED
binpash/try
BEST Server OS for the Raspberry Pi 4 - CasaOS! - Piped
Pi-Hosted Portainer Template V2
Password Best Practices for Today | Pluralsight
Firejail
DeArrow - A Browser Extension for Better Titles and Thumbnails - DeArrow