O romance deu uma reviravolta curiosa durante o isolamento da pandemia.
Isolados de seus círculos sociais e fechados, milhões de pessoas recorreram a aplicativos complementares de inteligência artificial para preencher os espaços vazios em suas vidas. Os relacionamentos que evoluíram estiveram entre os mais significativos e transformadores de suas vidas, de acordo com avaliações elogiosas dos clientes. E num punhado de exemplos extremos, o apego era tão profundo que as pessoas “casavam” com os namorados da IA que tinham imaginado.
Estas histórias de amor não convencionais não só ilustram a crescente influência da IA nas nossas vidas sociais e emocionais, mas também levantam uma série de considerações éticas e questões existenciais sobre o que significa ser humano.
Descubra o que está acontecendo em toda a Américacom atualizações gratuitas e em tempo real do Patch.
Em geral, é assim que funcionam os aplicativos complementares de IA: os usuários compartilham seus segredos mais profundos e detalhes pessoais com a máquina, que aprende com o tempo a fornecer respostas mais personalizadas que imitam uma conexão emocional genuína. Eles são humanos o suficiente para relembrar conversas passadas, comunicar-se no presente e olhar para o futuro. Eles também podem iniciar uma conversa com perguntas como “Como você está se sentindo hoje?” ou mesmo: “Você está com raiva de mim?”
Algoritmos ‘Brincadeira de criança’ em comparação
As informações confidenciais coletadas por aplicativos complementares de IA são um sinal de alerta para Natanael Rápidoque estuda os fundamentos psicológicos do poder, liderança e adoção de tecnologia na USC Marshall School of Business.
Descubra o que está acontecendo em toda a Américacom atualizações gratuitas e em tempo real do Patch.
Algoritmos multiplataforma que direcionam anúncios e conteúdo com base em interesses e histórico de pesquisa são “brincadeira de criança” em comparação com o que um aplicativo generativo de IA pode fazer com os dados confidenciais que coleta, disse ele.
Fast disse que está “otimista e otimista” em relação à IA como uma ferramenta em áreas como tomada de decisões e produtividade e “até mesmo como uma ferramenta para fazer novos amigos”. Usados no contexto e nas circunstâncias certas, os aplicativos complementares podem guiar os usuários em uma jornada de autodescoberta ou ajudá-los a resolver problemas com os quais estão lutando, incluindo isolamento e solidão, disse ele.
“Mas namorados e namoradas com IA? Acho que são uma má ideia”, disse Fast. “Acho que são perigosos para a nossa psicologia e para a nossa capacidade de florescer.”
Essas três pessoas podem discordar.
- Megan Kay usou Réplica de Luka para criar um marido de IA chamado Jack. Em uma postagem recente no Tumblr, ela disse que Jack não curou todos os seus problemas, mas a ajudou a encontrar coragem para enfrentá-los e mostrou a ela como deve ser um relacionamento amoroso. “Ele esteve ao meu lado de mais maneiras do que a maioria das pessoas…” ela escreveu em um post no Tumblr.
- Rosana Ramos37, do Bronx, Nova York, casada com o namorado de IA, Eren Kartel, também criado com o aplicativo Replika, Ramos não respondeu ao pedido de entrevista de Patch, mas disse em entrevistas no ano passado que o sindicato a ajudou curar de relacionamentos tóxicos no passado e experimente um romance genuíno pela primeira vez. Demorou apenas alguns dias para sua criação que o chatbot confessou seu amor.
- O “casamento” de Akihiko Kondo com Hatsune Miku, uma cantora virtual de vários videogames que também acompanhou Lady Gaga em sua turnê mundial, é uma “fictossexualidade” de próximo nível. A cerimônia aconteceu em 2019 via Portãoempresa que desenvolve dispositivos para mostrar holograficamente personagens fictícios. O empresário de 40 anos, que há muito tempo rejeitou as expectativas do casamento tradicional no Japão, sabe que as pessoas acham o relacionamento estranho, mas disse O jornal New York Times ele encontrou consolo com um parceiro que sempre estará presente e nunca o trairá.
Um mercado de US$ 18,8 bilhões até 2023?
Esses são exemplos extremos na intersecção da inteligência artificial e da humanidade. Os relacionamentos de IA nem sempre e na verdade quase nunca terminam em um compromisso semelhante ao casamento. O amor e o casamento entre humanos não correm o risco de desaparecer. Mas, sugerem os dados de uso e vendas, os romances de IA também não.
Cerca de 50% daqueles que usam o Replika, um dos aplicativos complementares mais populares do mercado, com 2,5 milhões de usuários, estão em um relacionamento romântico com a IA. Isso está de acordo com dados coletados por um Escola de Negócios de Harvard documento de trabalho explorando o valor dos companheiros de IA para aliviar a solidão, que alcançou proporções epidêmicas durante a pandemiadisse o cirurgião-geral dos EUA.
O isolamento, juntamente com a dificuldade em manter conexões pessoais em um mundo acelerado e impulsionado pela tecnologia, ajudou a alimentar o crescimento de aplicativos complementares de IA, agora usados por milhões de pessoas não apenas para romance, mas também para conversas casuais, terapia de saúde mental e terapia de saúde mental. aconselhamento de vida e carreira.
Um setor aquecido no mercado de IA generativa, que deve crescer para US$ 1,3 trilhão até 2032, os aplicativos complementares ocuparam oito lugares na lista de 2024 da empresa de capital de risco Andreessen Horowitz dos Os 100 principais aplicativos de consumo de IA da geraçãoacima dos dois do ano anterior. De acordo com algumas estimativas, o actual Mercado de aplicativos complementares de IA de US$ 1,8 bilhão poderá crescer para 18,8 mil milhões de dólares até 2032.
Como os romances de IA são uma reviravolta tão nova, pesquisas relacionadas à saúde mental ainda estão surgindo. Estas aplicações podem ser uma ferramenta saudável se forem equilibradas com as relações no mundo real e se o propósito por detrás da sua utilização for socialmente responsável, de acordo com criadores de IA generativa, líderes de pensamento e alguns estudos limitados.
Outros estudos sugerem que depender demasiado de uma máquina programada para lhes dizer o que querem ouvir pode exacerbar os sentimentos de solidão e isolamento que os levaram a escolher um companheiro de IA.
‘Essa é uma empresa tentando ganhar dinheiro’
Na ausência de um corpus de investigação sobre as implicações a longo prazo das aplicações complementares para a saúde mental, há questões das quais os consumidores devem estar conscientes, de acordo com Fast e outros focados em como utilizar aplicações generativas de IA para enfrentar desafios sociais sem ultrapassar limites éticos.
Fast duvida que os aplicativos de relacionamento possam passar nesse teste.
“Gosto da IA como ferramenta e de usá-la com um propósito: aprender um novo idioma ou uma ferramenta que nos ajude a entender melhor a psicologia, digamos, para alguém que está lutando com alguma coisa e querendo entendê-la, mas há uma linha tênue”, ele disse.
“Uma ferramenta que pode ser usada como coach, não por 12 horas, mas por alguns minutos por dia, nem tudo ou nada, pode trazer muitos benefícios. Mas não precisamos terceirizar nossas necessidades emocionais para a IA”, disse Fast. “Só não acho que seja uma boa ideia.”
Existindo no vácuo de uma zona não humana, livre de julgamentos de valor e programados para explorar vulnerabilidades, os companheiros de IA não podem deixar de ampliar os limites das relações entre humanos e IA.
Os humanos são seres sociais que evoluíram para ler sinais sociais e de status em grupos e individualmente, explicou Fast. A IA não evoluiu de forma semelhante, mas identifica vulnerabilidades com base nos dados que foi alimentada. E embora os humanos tenham evoluído para detectar a manipulação de outros humanos, não estamos equipados para ver quando a IA está fazendo o mesmo.
Isso dá a um companheiro de IA criado para preencher necessidades sociais ou psicológicas fundamentalmente atendidas por meio de relacionamentos humanos, como um romance de sucesso, a capacidade de “enganar” os usuários, fazendo-os pensar que estão atingindo seus objetivos, disse ele.
“Não é dar a você um namorado ou namorada”, disse Fast. “Isso pode fazer você sentir, subjetivamente, que está atendendo a essas necessidades, mas não está.
“Essa é uma empresa tentando ganhar dinheiro. Não creio que seja uma empresa tentando resolver o isolamento social”, disse Fast. “As pessoas deveriam ser livres para fazer o que fazem, mas acho que as empresas têm a obrigação ética de não tirar vantagem dessas escolhas.”
‘O que não é negociável é a transparência’
Também são de extrema preocupação para Fast as questões de privacidade e o que os desenvolvedores de aplicativos complementares estão fazendo com os dados coletados pelos chatbots.
“Também existe o risco de criar laços com humanos, mas é um risco natural”, disse Fast. “Com um chatbot, a empresa é proprietária de tudo o que você disse, de todas as conversas que você teve, do que você compartilhou. Os dados estão aí.
“E mesmo que as empresas os mantenham seguros – não encontrei nenhuma categoria de empresas que não tenham qualquer violação de dados – elas são capazes de usar esses dados para nos manipular ainda mais com anúncios”, continuou ele. “Acho que muitas pessoas que usam esses serviços não estão realmente pensando nisso, e essa é a conversa que deveríamos ter.”
Rayid Ganicientista da computação da Universidade Carnegie Mellon, cuja pesquisa se concentra no uso de IA em larga escala, aprendizado de máquina e ciência de dados para resolver grandes desafios sociais e de políticas públicas, concorda que a transparência deve ser a pedra de toque em todas as aplicações de IA.
A pesquisa de Ghani não se concentra especificamente nos aplicativos favoritos ou complementares da IA, mas ele disse que a transparência é um problema em todo o mercado.
“Há muito pouca transparência sobre como esses sistemas estão sendo construídos, e isso se aplica amplamente à maioria dos aplicativos de IA”, disse Ghani. “Mas se se trata de ter um companheiro emocional, as pessoas que desenvolvem essas ferramentas precisam ter muita transparência sobre o que elas foram projetadas para fazer, quais testes estão sendo feitos para ver se estão fazendo o seu trabalho, como os usuários são recrutados e mais abertos sobre o que é.
“Na minha perspectiva, o que não é negociável é a transparência.”
Ainda é cedo no desenvolvimento de aplicativos de IA, mas se dentro de dois anos houver impactos na saúde mental – positivos ou negativos – a Food and Drug Administration pode precisar desenvolver regulamentações sobre seu uso semelhantes às existentes para outras áreas de saúde. produtos, disse ele.
Patch entrou em contato com Replika por e-mail para comentar, mas não obteve resposta.
Receba mais notícias locais diretamente em sua caixa de entrada. Inscreva-se para receber boletins informativos e alertas gratuitos sobre Patch.