Quei rischi di sicurezza nell’AI, standardizzare per mitigarli

Tre esperti ci spiegano come comprendere cosa rischiamo con l'intelligenza artificiale. Ma anche i possibili benefici di uno standard per i vari prodotti, che cosa prevede la normativa e come sciogliere i dubbi su etica e moralità nei sistemi L'articolo Quei rischi di sicurezza nell’AI, standardizzare per mitigarli proviene da Cyber Security 360.

Quei rischi di sicurezza nell’AI, standardizzare per mitigarli – Cyber Security 360

L’analisi

Condividi questo articolo

Tre esperti ci spiegano come comprendere cosa rischiamo con l’intelligenza artificiale. Ma anche i possibili benefici di uno standard per i vari prodotti, che cosa prevede la normativa e come sciogliere i dubbi su etica e moralità nei sistemi

3 ore fa

L’intelligenza artificiale (AI) è la teoria e lo sviluppo di sistemi informatici in grado di svolgere compiti che normalmente richiedono l’intelligenza umana. Con questo termine, tuttavia, si indica anche la capacità di un computer digitale o di un robot controllato dal computer di eseguire compiti comunemente associati agli esseri intelligenti.

Il termine è spesso applicato al progetto di sviluppare sistemi dotati dei processi intellettuali caratteristici degli esseri umani, come la capacità di ragionare, scoprire significati, generalizzare o imparare dall’esperienza passata. A causa del rapido ritmo di crescita della tecnologia sono emerse preoccupazioni per l’etica, la privacy e la sicurezza nell’IA, ma non hanno ricevuto la massima attenzione fino ad oggi.

Intelligenza artificiale e cyber security: sfide e opportunità

Una delle principali aree di preoccupazione riguarda la distorsione dell’apprendimento nei sistemi di intelligenza artificiale, che può cambiare in modo inappropriato l’output dell’IA a favore di determinati set di dati.

Ne abbiamo parlato con Gianluigi Greco Presidente dell’associazione AIxIA, Claudio Telmon di P4i e Nicola Grandis, CEO di ASC27, per approfondire i rischi, ma anche i concetti di standardizzazione, la normativa e per spiegare i dubbi su etica e moralità nei sistemi.

Introduzione ai rischi di sicurezza e modello del danno

Come in qualsiasi altro sistema digitale, anche nelle applicazioni di AI, come ad esempio il machine learning, vi sono rischi di sicurezza nelle applicazioni. Per questo motivo l’Europa ha deciso di dotarsi di un testo di


Leggi tutto: https://www.cybersecurity360.it/outlook/quei-rischi-di-sicurezza-nellai-standardizzare-per-mitigarli/


LaCittaNews è un motore di ricerca di informazione in formato magazine, aggrega e rende fruibili, tramite le sue tecnologie di ricerca, in maniera  automatica, gli articoli più interessanti presenti in Rete.  LaCittaNews non si avvale di nessuna redazione editoriale.   =>  DISCLAIMER

Buy Me A Coffee

Lascia una risposta

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.