#OpenAI #InteligenciaArtificial #Sora #Criptomoedas #Scams #Tecnologia #Inovação #Segurança
A empresa de inteligência artificial OpenAI revelou recentemente seu mais novo produto, um modelo de conversão de texto para vídeo chamado Sora. No entanto, com os avanços da IA tornando-se cada vez mais sofisticados, há preocupações crescentes de que essas tecnologias possam ser utilizadas por golpistas, especialmente com o crescente mercado de criptomoedas, onde tais ferramentas poderiam ser empregadas em fraudes.
De acordo com o anúncio de 15 de fevereiro, Sora é capaz de criar vídeos de até 60 segundos contendo cenas altamente detalhadas, movimentos complexos de câmera e múltiplos personagens exibindo emoções vibrantes. A empresa anunciou que tomará várias medidas de segurança importantes antes de disponibilizar o Sora em seus produtos, trabalhando com “red teamers” – especialistas em áreas como desinformação, conteúdo odioso e viés – que estão testando adversamente o modelo. Apesar da extensa pesquisa e testes, a OpenAI adverte que é impossível prever todas as formas benéficas como as pessoas usarão a tecnologia, bem como todas as maneiras pelas quais ela poderá ser abusada. Contudo, a nova tecnologia provavelmente será utilizada por fraudadores de criptomoedas para criar deepfakes, falsos endossos de celebridades e automatizar a criação de um grande volume de vídeos fraudulentos a um custo baixo, possívelmente promovendo esquemas de pump-and-dump e permitindo que golpes de cripto se espalhem rapidamente se não forem controlados.
Comments are closed.