Come dovremmo confrontare gli errori dell'IA con quelli umani nella sanità? I medici commettono errori tutto il tempo, ma non è che rimuoviamo la licenza medica a un dottore se commette qualche errore. La soglia per l'IA è molto più alta: deve essere quasi perfetta e testata in ogni possibile scenario. Non appena commette qualche errore ai margini, ci sentiamo a disagio nel metterla in produzione. Ciò solleva anche alcune domande su se "la concordanza con ciò che ha detto il medico" sia davvero il parametro da misurare. E se fosse confrontata con un cattivo medico? Probabilmente non vorremmo che ottenessero le stesse risposte. Ci sono probabilmente alcune ragioni per questo. Abbiamo un quadro di responsabilità per i medici che commettono errori sotto forma di malpractice. I medici hanno una regola di codice etico, commissioni di revisione e feedback sociale che li spingono a fare la cosa giusta. Stiamo ancora cercando di capire come affrontare la responsabilità se l'IA commette un errore e cosa li motiva a fare la cosa giusta. Perché la mia continua ad essere d'accordo con me? (A parte il fatto che ho ragione). Ma se l'IA è già migliore del quartile inferiore dei medici che commettono costantemente errori in casi semplici, dovremmo già metterla in circolazione? Aspetta, ma come identifichiamo chi è nel quartile inferiore dei medici?
9,31K