A utilização com segurança da inteligência artificial na saúde é muito importante
Redação
O uso da inteligência artificial (IA) requer o acesso a grandes quantidades de dados de saúde, o que pode comprometer a privacidade e a segurança dos pacientes, entre outros fatores. Então quem é responsável se um algoritmo de inteligência artificial vazar dados de um paciente, por exemplo? Como se pode assegurar que as informações coletadas não sejam usadas para fins criminosos? Essas são perguntas que as instituições precisam considerar ao implementar as tecnologias de IA.
Paulo Henrique de Souza Bermejo –
Nos últimos anos, vimos o nascimento e o desenvolvimento de tecnologias inovadoras e relevantes, a exemplo da Inteligência Artificial (IA), e suas aplicações nas mais variadas esferas, como na saúde. Dentre essas inovações, está, por exemplo, o ChatGPT, uma IA generativa avançada, criada pela OpenAI.
Ele não apenas entende e gera texto, mas pode ser treinado para realizar uma série de tarefas complexas e especializadas. Porém, embora o uso da IA no ambiente médico traga inúmeros benefícios, também enfrenta desafios e levanta questões éticas.
No Brasil, aliás, o assunto está em pauta atualmente no Senado, com a regulamentação da IA, por meio do projeto de lei (PL) 2.338/2023, que está para ser votado e estabelece princípios, direitos e regras para uso da ferramenta. O tema vem sendo alvo de divergências e controvérsias entre os diversos setores e categorias, abrangendo tanto aqueles que oferecem como os que utilizam a inteligência artificial no cotidiano.
O uso da IA requer o acesso a grandes quantidades de dados de saúde, o que pode comprometer a privacidade e a segurança do...