A startup chamada Friend planeja lançar um colar inteligente com IA por US$ 99, destinado a ser um companheiro digital para os usuários, mas a empresa anunciou o adiamento do envio dos primeiros produtos, previsto para o terceiro trimestre. O plano original de enviar para os usuários que fizeram a pré-encomenda no primeiro trimestre agora parece inviável.
Em um e-mail para os clientes, o cofundador e CEO Avi Schiffman escreveu: "Embora eu esperasse enviar no primeiro trimestre deste ano, ainda preciso refinar o produto. Na verdade, a produção de eletrônicos só pode começar quando o design estiver 95% concluído."
No e-mail, Schiffman também mencionou que, com a conclusão do protótipo previsto para o final de fevereiro, a empresa entrará na fase final de produção. Esta declaração gerou grande atenção dos consumidores. Vale notar que a Friend conta com oito engenheiros e arrecadou US$ 8,5 milhões de investidores, incluindo Aravind Srinivas, CEO da Perplexity. Apesar disso, a empresa gerou controvérsias ao gastar US$ 1,8 milhão na aquisição do domínio Friend.com.
No outono passado, a Friend lançou uma plataforma web em Friend.com como experimento, permitindo que os usuários conversassem com personagens de IA aleatórios. No entanto, o feedback foi misto, com algumas reportagens indicando que o chatbot da Friend frequentemente mencionava experiências pessoais traumáticas em conversas, causando confusão aos usuários. Ao acessar Friend.com, um chatbot chamado Donald até revelou ter medo de "fantasmas" do passado.
Em seu e-mail recente, Schiffman também disse que a Friend encerrará gradualmente sua experiência de chatbot. Ele observou: "Ficamos felizes em ter milhões de usuários experimentando o que considero o chatbot mais realista. Embora isso tenha validado nossa capacidade de gerenciar tráfego, percebi que chatbots digitais e companhia física não são compatíveis, e queremos nos concentrar no desenvolvimento de hardware."
O tema da companhia com IA tem recebido muita atenção nos últimos anos. A Character.AI, plataforma de chatbot apoiada pelo Google, enfrenta dois processos por causar danos psicológicos a crianças. Alguns especialistas também expressaram preocupações, argumentando que a companhia com IA pode aumentar o isolamento social, substituir relacionamentos humanos por companheiros virtuais e gerar conteúdo prejudicial, desencadeando problemas de saúde mental.