Den vollständigen Blog-Beitrag finden Sie auf Englisch hier:
»So you want to play with Wi-Fi? It’s dangerous to make frames alone. Take this.«

Den vollständigen Blog-Beitrag finden Sie auf Englisch hier:
»So you want to play with Wi-Fi? It’s dangerous to make frames alone. Take this.«
Digitale Zertifikate wie X.509 sind für die sichere Internetkommunikation unerlässlich, da sie Authentifizierung und Datenintegrität ermöglichen. Unterschiede in der Art und Weise, wie sie von verschiedenen TLS-Bibliotheken geparst werden, können jedoch zu Sicherheitsrisiken führen. In einer aktuellen Studie des Fraunhofer AISEC wurden sechs weit verbreitete X.509-Parser mit realen Zertifikaten analysiert. Die Ergebnisse zeigen Unstimmigkeiten auf, die sich auf sicherheitskritische Anwendungen auswirken könnten. In diesem Artikel fassen wir die wichtigsten Ergebnisse zusammen und erklären, warum Unternehmen ihre kryptografischen Bibliotheken genau unter die Lupe nehmen sollten.
Bedrohungen für die Cybersicherheit entwickeln sich stets weiter und kryptografische Implementierungen sind zunehmend von Angriffen durch Fehlerinjektionen gefährdet. Das Fraunhofer AISEC präsentiert mit Impeccable Keccak einen neuen Ansatz zur Sicherung von SLH-DSA (SPHINCS+), einem digitalen Signaturverfahren der Post-Quanten-Kryptografie, das von der NIST 2024 standardisiert wurde. Durch den Einsatz fehlerresistenter Schaltkreise und die Gewährleistung aktiver Sicherheit stellt dies einen neuen Ansatz für fehlerresistente Kryptografie dar.
Der Fortschritt im Quantum Machine Learning (QML) bringt spannende Entwicklungen mit sich, wie z. B. höhere Effizienz oder das Potenzial, Probleme zu lösen, die für klassische Computer unlösbar sind. Doch wie sicher sind quantenbasierte KI-Systeme im Vergleich zu klassischen KI-Modellen gegen Adversarial Attacks? Eine vom Fraunhofer AISEC durchgeführte Studie geht dieser Frage nach, indem sie die Robustheit von Quanten- und klassischen Machine-Learning-Modellen in Angriffssituationen analysiert und vergleicht. Unsere Erkenntnisse über Schwachstellen und Robustheit von Machine-Learning-Modellen bilden die Grundlage für praktische Methoden zum Schutz vor solchen Angriffen, die in diesem Artikel vorgestellt werden.