Caso Storico Mette in Discussione l’IA nell’Ambito Immobiliare
In un caso emblematico che mette in luce i potenziali danni delle decisioni prese dall’IA nel settore immobiliare, SafeRent, una società di controllo degli inquilini alimentata da intelligenza artificiale, ha accettato un risarcimento di $2.3 milioni e di interrompere il suo sistema di punteggio.
Hai fretta? Ecco i fatti salienti!
- SafeRent ha rifiutato la domanda di affitto di Mary Louis nonostante una forte referenza dal suo padrone di casa.
- Una causa legale ha sostenuto che la valutazione di SafeRent discriminava gli affittuari neri e ispanici che utilizzavano buoni.
- Gli enti federali stanno monitorando il caso poiché la regolamentazione dell’IA nell’edilizia abitativa rimane limitata.
La causa, presentata dalle inquiline Mary Louis e Monica Douglas, sosteneva che l’algoritmo utilizzato da SafeRent discriminasse in modo sproporzionato gli inquilini neri e ispanici che si affidavano ai buoni per l’alloggio, violando il Fair Housing Act, come riportato per la prima volta da The Guardian.
Mary Louis, guardia di sicurezza nel Massachusetts, è stata una dei più di 400 inquilini colpiti dal controverso sistema di SafeRent. Nonostante avesse ricevuto un’ottima referenza dal suo padrone di casa di 17 anni e avesse utilizzato un buono per l’abitazione a basso reddito che garantiva il pagamento parziale dell’affitto, la sua domanda è stata respinta.
Il rifiuto è arrivato dopo che SafeRent le aveva assegnato un punteggio di 324, ben al di sotto del requisito minimo di 443 stabilito dalla società di gestione. Non è stata fornita alcuna spiegazione per il punteggio né un processo di appello, come riportato da The Guardian.
La causa legale, depositata nel 2022, accusava SafeRent di utilizzare un sistema di punteggio opaco che teneva in considerazione dati finanziari irrilevanti, come il debito delle carte di credito, ignorando i pagamenti garantiti forniti dai voucher per l’alloggio, ha dichiarato The Guardian.
Gli studi dimostrano che gli inquilini neri e ispanici sono più propensi ad avere punteggi di credito più bassi e a fare affidamento sui voucher rispetto ai candidati bianchi, aggravando le disuguaglianze esistenti, come riportato dal National Consumer Law Center.
Louis ha descritto la sua frustrazione per la mancanza di contesto dell’algoritmo. “Sapevo che il mio credito non era buono. Ma l’IA non conosce il mio comportamento – sapeva che ero in ritardo nel pagare la mia carta di credito, ma non sapeva che pago sempre l’affitto”, ha detto al The Guardian.
La transazione, approvata il 20 novembre, è notevole non solo per la sua componente finanziaria, ma anche per l’obbligo di apportare cambiamenti operativi.
SafeRent non può più utilizzare un sistema di punteggio o raccomandare decisioni di locazione per i candidati che utilizzano buoni abitativi senza una validazione indipendente da parte di un’organizzazione imparziale di alloggi. Tali aggiustamenti sono rari nei regolamenti che coinvolgono le aziende tecnologiche, che di solito evitano di modificare i prodotti principali, come ha notato The Guardian.
“Rimuovere la determinazione del pollice in su, pollice in giù permette davvero all’inquilino di dire: ‘Sono un ottimo inquilino'”, ha detto Todd Kaplan, un avvocato che rappresenta i querelanti, come riportato da The Guardian.
Il caso mette in evidenza le crescenti preoccupazioni riguardo all’uso dell’IA in aspetti fondamentali della vita, inclusi l’abitazione, l’occupazione e l’assistenza sanitaria.
Un sondaggio di Consumer Reports 2024 ha rivelato un diffuso disagio nei confronti della decisione algoritmica, in particolare nelle aree ad alto rischio. I critici sostengono che questi sistemi si basano spesso su presupposti statistici errati, portando a risultati discriminatori.
Kevin de Liban, esperto legale sui danni dell’IA, ha osservato che le aziende hanno pochi incentivi a creare sistemi equi per le persone a basso reddito. “Le forze di mercato non funzionano quando si tratta di persone povere”, ha detto, sottolineando la necessità di regolamentazioni più forti, come riportato da The Guardian.
“Nella misura in cui questo è un caso di riferimento, ha il potenziale di fornire una mappa stradale su come guardare questi casi e incoraggiare altre sfide”, ha detto Kaplan, sebbene gli esperti avvertano che il solo litigio non può tenere le aziende responsabili, come riportato da The Guardian.
Per affittuari come Louis, tuttavia, l’accordo rappresenta una vittoria strenuamente combattuta, che apre la strada a un trattamento più equo per coloro che dipendono dai programmi di assistenza abitativa.
Lascia un commento
Annulla