Voltar
18 abril 2023 10h40
Fonte: Jornal I

Ela está aí e veio para ficar

Ela está aí e veio para ficar
Querer travar a inteligência artificial é o mesmo que querer parar a chuva com as mãos. Os prós e contras do ChatGPT, e de outros softwares de linguagem, na educação, saúde, cultura, justiça e economia. Os desafios que se colocam e o futuro da inteligência dos homens

Mais de 25 anos depois de uma máquina ter posto fim ao monopólio da inteligência humana, a IA representa um novo passo na evolução da tecnologia. Bill Gates acredita que o ChatGPT vai mudar o mundo. Poderão as máquinas assumir o controlo dos acontecimentos?

Para muitos, o dia 11 de maio de 1997 ficará para como um ponto de viragem na história; o dia em que a máquina derrotou o homem. E não falamos de um comum mortal, mas daquele que é considerado possivelmente o maior xadrezista de todos os tempos, Garry Kasparov. Com essa derrota, tinha terminado a supremacia incontestada dos humanos em questões de inteligência.

O braço-de-ferro iniciara-se com um primeiro confronto em fevereiro de 1996, em que Kasparov venceu o Deep Blue por 4-2.0 supercomputador desenvolvido pela IBM e programado com a ajuda de mestres de xadrez sofreu então reajustes. Na desforra, em Nova Iorque, a primeira partida foi do xadrezista; a segunda, da máquina, graças a um lance desarmante que Kasparov comparou à mão de Diego Maradona no Mundial de 1986; a terceira, quarta e quinta partidas terminaram empatadas. E à sexta foi de vez; o Deep Blue controlou os acontecimentos e fez xeque-mate ao campeão mundial em 19 jogadas.

Um desfecho diferente é que seria de estranhar. Enquanto Kasparov, com a sua experiência, imaginação e excecional capacidade mental, conseguia avaliar até trêsjogadas por segundo, o Deep Blue podia avaliar até 200 milhões. Num jogo de cálculo e de probabilidades, isto dava-lhe uma vantagem que compensava muitas das suas fraquezas inerentes.

500 MIL MILHÕES DE TOKENS Embora o Deep Blue não fosse ainda produto da inteligência artificial (podia ser reprogramado, ajustado, mas não tinha capacidade para aprender com os erros, para se ajustar à forma de jogar do adversário ou para retirar lições a cada novo movimento), mais de um quarto de século depois, o embate entre Kasparov e a máquina da IBM no final do século passado parece resumir muitas das dúvidas e dos receios hoje levantados pelo desenvolvimento da inteligência artificial. Serão as máquinas capazes de ganhar preponderância intelectual sobre o homem e de assumir o controlo dos acontecimentos?

O caso do Chat GPT, por exemplo, tem causado alguma ansiedade entre aqueles que se dedicam à escrita Qual o futuro desta atividade eminentemente humana quando as máquinas já são capazes de escrever sozinhas? Haverá lugar para pessoas de carne e osso nas redações dos jornais do futuro?

Tal como o Deep Blue era capaz de analisar 200 milhões de jogadas por segundo, também esta aplicação consegue fazer aquilo de que nenhum cérebro humano, por mais penetrante ou poderoso que seja, é capaz: a versão GPT-3, por exemplo, foi criada a partir de 500 mil milhões de "tokens” (cada token é uma unidade em média com quatro letras, e pode corresponder a uma palavra, embora algumas palavras tenham mais do que um token), o que lhe permite depois jogar com as possibilidades infinitas da linguagem. Para isso, o software, que está disponível desde novembro de 2022 e tem conhecido atualizações, foi pescar no gigantesco manancial de textos dos mais diferentes tipos disponíveis na internet, desde um soneto de Shakespeare a uma carta comercial, de diálogos entre intemautas e letras de canções a artigos na imprensa.

Como funciona? Do ponto de vista do utilizador é perfeitamente intuitivo: basta solicitar ao programa que discorra sobre um determinado assunto e indique o número de batidas pretendido; o texto é gerado automaticamente. A escrita do ChatGPT é camaleónica: tanto pode assumir a forma de poesia como o tom de um documento legal. Depende da vontade do freguês.

Os textos possuem no entanto um traço em comum. Embora, segundo a BBC, o ChatGPT não possa "expressar opiniões políticas”, é indisfarçável a impressão que poderíamos associar a certos movimentos cuja única especialidade é não ofenderem quem quer que seja.

PRODUZIR VS. REPRODUZIR INFORMAÇÃO Bill Gates, o fundador da Microsoft, empresa que apoiou a norte-americana OpenAI no desenvolvimento da aplicação, mostrou-se entusiástico e acha que o Chat GPT pode protagonizar uma revolução tão grande quanto a própria internet. "Até agora, a inteligência artificial podia ler e escrever, mas não conseguia entender o conteúdo”, disse o empresário aojornal alemão

Handelsblatt. "Os novos programas como o ChatGPT vão tornar muitos trabalhos de escritório mais eficientes. Isso vai mudar o nosso mundo”.

O economista norte-americano Paul Krugman, vencedor do Nobel em 2008, também acredita que o ChatGPT trará grandes mudanças no setor do conhecimento.

Especificamente no jornalismo, o impacto dependerá do curso que esta atividade queira seguir. Se for visto como desígnio do jornalismo reproduzir informações alheias, compilar e replicar o que disseram outros órgãos de informação, e processar tudo numa linha de montagem destinada a alimentar incessantemente os sites de informação, aplicações como o ChatGPT terão certamente um futuro brilhante pela frente.

Mas o jornalismo não se limita à tarefa de juntar palavras sobre um determinado tema. Tal como o Deep Blue não avaliava verdadeiramente o jogo nem o adversário, antes fazia combinações e calculava probabilidades, o ChatGPT não produz verdadeiramente informação. Como poderia fazê-lo se não presencia, não testemunha acontecimentos, não recolhe dados, não ouve protagonistas nem avalia criticamente (o que é diferente de afinar pelo diapasão da maioria) diferentes pontos de vista?

Em última análise, as máquinas poderão criar uma história muito boa, um poema inesperado ou até quem sabe escrever um romance de sucesso. Mas o jornalismo parece continuarlhes vedado. Tanto quanto sabemos, não está previsto num cenário como a guerra da Ucrânia as máquinas dirigirem-se ao local dos combates para falarem com os protagonistas, ouvirem as vítimas e apurarem o que se passou.

Para isso ainda precisamos de pessoas que ouçam, vejam, cheirem, sintam e registem as suas impressões, seja numa folha de papel ou no ecrã de um computador. Sem essa matéria primordial, que é nada mais nada menos que a informação, não poderá haver jornalismo, por mais inteligentes e evoluídas que sejam as máquinas.

Bill Gates diz que o ChatGPT pode ser uma revolução tão grande como a web

Poderá uma máquina produzir informação se não presencia nem ouve os intervenientes?

CíTem coisas boas e tem coisas más, mas é uma ferramenta ótimaw

uJá me aconteceu uma aluna entregar-me um trabalho

que foi escrito pelo ChatGPT 55

Algoritmos de IA bastante avançados fazem uso de uma técnica chamada redes neuronais 5?

U O contra de tais algoritmos avançados serem usados na saúde é óbvio 55

Depois de terminar a licenciatura, Pieter pediu a um professor que avaliasse um trabalho

O professor não

cc achou que tivesse ficado muito claro que o texto fora escrito pelo ChatGPT

Um problema do recurso a novas tecnologias que é sempre discutido é a dependência 33

CC O advento descredibilizou qualquer grau obtido desde então?33

ííA proposta da tributação dos robôs é ridícula e só serve para iludir. Não resolveria nada99.

Um dos maiores problemas da IA é que vem rodeada por mitos, fábulas e ilusões ¦> 1

a A receita fiscalnão está inversamente correlacionada com o avanço tecnológico 55

i(( Ficaremos todos desempregados? Sim, tal como os remadores das galés gregas e romanas 55

Artistas acreditam que tecnologias como o ChatGPT podem prejudicar profissionais

Editoras tentaram proibir inteligências artificiais de ter acesso às suas músicas

O que já nos parece inviável é a substituição de um juiz-pessoa por um juiz-algoritmo

O software não é neutro, sendo condicionado pelos vieses introduzidos pelo programador

Altman também é conhecido pela sua posição em várias questões políticas e tecnológicas

Apoiou a candidatura do democrata Andrew Yang à presidência em 2020

Thiel é uma figura controversa, tendo apoiado Donald Trump nas últimas presidenciais

Após a venda do PayPal, Thiel tornou-se um investidor de capital de risco

EDITORIAL

Um futuro chato e sem qualquer interesse

Mário Ramires

O exercício do i de colocar nas bancas - na edição da semana passada - um jornal elaborado quase sem intervenção humana, em vez de escrito por jornalistas de carne e osso com carteira profissional e esses ‘pormenores’ ainda da nossa época, é a prova provada de que essa realidade que se anuncia para o futuro já muito próximo tem muito pouco interesse ou, melhor dizendo, não tem interesse algum. O mundo do ChatGPT, de facto, impressiona, percebe-se o seu gigantesco potencial, vislumbra-se os enormes riscos e, sobretudo, reconhece-se a capacidade extraordinária de permitir a recolha de informação dos seus utilizadores - quais incautos usuários das redes sociais que colocam a população mundial em geral à mercê da dúzia e meia de geniais criadores e dominadores da realidade cada vez menos virtual da web.

O mundo robotizado, informatizado, ‘algoritmatizado’ construído por esses (verdadeiros) novos donos disto tudo é um mundo despersonalizado, descaracterizado, sem alma, sem nervo, sem emoção. Não tem sangue a correr nas veias, nem vida. E tudo afinado pelo mesmo diapasão, calibrado, catalogado, tagado.

O conhecimento e o pensamento, ao alcance de qualquer um e à distância de um clic, perdem valor, chegando a questionar-se o esforço de quem investe na sua instrução, formação, cultura.

Ao ponto de a leitura se confundir com a perda de um tempo que os humanos cada vez mais alienam e do qual cada vez menos dispõem, apesar de o progresso e das novas tecnologias deverem ter como objetivo contribuir precisamente para que o homem tivesse mais tempo e mais disponibilidade para o seu enriquecimento pessoal, educativo e cultural. Quanto mais massificada e disponível a informação e o conhecimento mais aculturada se revela a sociedade.

Como se o objetivo da humanidade seja a criação de uma sociedade acrítica e acéfala, regulada pelo algoritmo, em que todos têm carros elétricos da marca Tesla, de Elon Musk.

Sim, eles são todos iguais independentemente do modelo, da potência, da autonomia, do espaço interior, do preço.

E não deixa de ser curioso que um em cada quatro Teslas importados pela Europa tenha como destino Portugal. Este país de Marias que vão com as outras, na cameirada, seguindo a moda, por mais parva que seja, e em que, de repente, as casas novas também são todas do mesmo género, em jeito de cubos com fachadas de vidro, sem atender às especificidades de cada região e às exigências da natureza de cada uma. Enfim, todos diferentes mas todos iguais.

Não é progresso. É uma chatice. Acrítica e acéfala. Sem sangue e sem alma.

ChatGPT na saúde Prós e contras do uso da inteligência artificial

O médico e professor universitário Henrique Prata Ribeiro e o estudante de doutoramento e assistente de educação, na Universidade de Genebra, Igor Matias refletem acerca dos prós e contras da utilização de IA na saúde.

MARIA MOREIRA RATO

mana. rato@ionline.pt

"Acho que há alguns cuidados a ter a usar o ChatGPT porque nem tudo aquilo que ele diz é absolutamente verdade. Da mesma forma que nós, quando vamos à Google, temos de verificar as referências, temos de fazer o mesmo com o ChatGPT: trabalhar as informações que nos são dadas E é bom, muitas das vezes, para percebermos aquilo que devemos desenvolver”, começa por dizer Henrique Prata Ribeiro, psiquiatra no Hospital Beatriz Ângelo que também exerce no setor privado, acerca desta ferramenta de inteligência artificial (IA) que tem dado que falar.

"O ChatGPT não é o único. Na saúde temos aplicações como a Tonic App, mais especializadas, que utilizam IA para responder a questões médicas. Têm tudo adaptado a este mundo da medicina. A dificuldade é sabermos se o ChatGPT utiliza referências credíveis: nem sempre o faz porque vai buscar informação a artigos publicados que não estão absolutamente corretos cientificamente. A verdade é que é muito bom para sistematizar informação e agregar fontes que não conhecemos. E isto é tão válido para a parte clínica, na qual acho que, obviamente, um médico que seja especialista numa área pode fazer uma pergunta ao ChatGPT para confirmar um determinado dado. Pode fazer uma pergunta extremamente direcionada para confirmar um detalhe”, avança, abordando também a vertente académica, pois desenvolve atividade enquanto professor universitário na Faculdade de Medicina da Universidade de Lisboa e na Católica Medicai School.

"Querer impedir as pessoas de usarem o ChatGPT, hoje, é a mesma coisa que pedir há 20 ou 30 anos que não usem a Internet. É uma inevitabilidade. Ter um sistema destes é uma vantagem: ajuda-nos a sistematizar informação, a compreender/recordar termos em inglês... Sou um otimista, é um defeito meu, portanto... Acho que é entusiasmante ter o ChatGPr disponível!”, explica. "Os alunos não devem utilizar o material diretamente retirado do ChatGPT, mas as universidades terão de mudar a forma como avaliam os estudantes. Não tenho problema nenhum se um aluno, que for fazer uma apresentação oral, recorra ao ChatGPT como apoio. Agora, tem de saber as coisas na mesma e elas têm de estar corretas. O ChatGPT fará, também, parte da evolução do ensino”, salienta o autor da obra TJrgências Psiquiátricas’, lançada em 2018, e que está a planear publicar uma obra sobre a depressão.

‘Tem coisas boas e tem coisas más, mas é uma ferramenta ótima. Pessoalmente, já me aconteceu uma aluna entregar-me um trabalho que foi escrito pelo ChatGPT. Perguntei à ferramenta e ela confirmou. Aquilo que fiz foi dizer à aluna que tinha de saber o que ali estava, que o ChatGPT, à partida, até tinha dado informação correta, mas ela tinha que apreender os conceitos e tudo o mais. Neste caso, ela não me disse que tinha usado o ChatGPT. Foi a primeira vez que isto aconteceu na faculdade e fiz questão de não anular o trabalho”, afirma, declarando que, em termos clínicos, já o utilizou para sistematizar percentagens quando estava a escrever um capítulo de um livro.

"Quanto mais conhecimento aglomerado tivermos, melhores serão as decisões que tomaremos. Aqui, o segredo é percebermos que a inteligência artificial, como tudo, tem os seus riscos e benefícios. E, acima de tudo, que pode ser usada para o bem, mas também para o mal da humanidade”, frisa o profissional de saúde, indo ao encontro da perspetiva de Igor Matias, estudante de doutoramento e membro do Quality of Life Lab da Universidade de Genebra, Suíça, que concluiu um Mestrado em Ciência Informática e Engenharia em 2020 e um Bacharelato na mesma área em 2018 pela Universidade da Beira Interior, Covilhã.

"Especificamente na saúde, a IA pode ser bastante vantajosa ao permitir, por exemplo, reco-, mendar as medicações certas para um dado paciente que possui diversas reações alérgicas ou outras condicionantes. A IA permite também a deteção de, por exemplo, tumores em imagens de raios X, imagens de ressonâncias magnéticas, etc., muitas das vezes com maior precisão do que inteiras equipas médicas (graças à sua capacidade de prestar atenção a pequeníssimos detalhes e padrões entre as imagens)”, explica, adiantando que "a IA é aplicada, ainda que atualmente apenas em pesquisa na maioria dos casos, à identificação de padrões em dados que nos podem levar a prever o surgimento de doenças anos antes, olhando para dados que à partida não mostrariam qualquer modificação suficientemente grande para um médico a considerar o início de algo maior a longo prazo”.

"No entanto, ainda que as aplicações de IA na saúde sejam bastante diversas e vantajosas, a utilização de IA em todas as áreas traz perigos”, alerta Igor Matias, cuja investigação de doutoramento se centra no desenvolvimento e teste de uma abordagem inovadora ao pré-diagnóstico da doença de Alzheimer, a principal causa da demência em todo o mundo, através da análise de rotinas da vida diária, sinais de saúde, e outros métodos, no sentido de uma solução assente em tecnologias móveis, tais como um smartphone e wearables, que possa prever a condição décadas antes do diagnóstico clínico. "É preciso notar que a IA, no seu estado mais simples, é apenas uma série de condições lógicas que são testadas pelo algoritmo sobre os dados que lhe damos. Por exemplo, um classificador de mensagens indesejadas irá procurar palavras-chave no assunto, texto e outras partes da mensagem recebida Desta forma, porque o caminho até à decisão de classificar uma mensagem como SPAM ou não é lógico e conhecido dos programadores, é possível perceber porquê e quando é que uma mensagem é mal classificada como SPAM (ou vice-versa), e posteriormente proceder ao ajuste do algoritmo para evitar fúturas classificações erróneas como aquela”, realça.

"Os contras da utilização de tais formas simples de IA na saúde residem no facto de elas não serem perfeitas. Isto é, se na teoria um algoritmo é 100% eficaz (coisa que não o é praticamente nunca), na vida real essa eficácia será mais baixa. E porquê? Porque o que acontece na vida real não é possível de replicar totalmente nos dados em que o algoritmo de IA foi treinado. Dessa forma, o algoritmo Vê’ um dado completamente diferente do que ele Viu’ nos dados de treino e apenas especula o que esse novo dado pode significar, sem nunca ‘ter a certeza’ do que ele é (por exemplo, mensagens SPAM que não são identificadas como tal por serem diferentes do que as SPAM costumam ser)”, avança, mencionando que, apesar disso, "tais algoritmos simples podem ser manualmente ajustados de forma a serem mais ‘perfeitos’ a cada dia, pois os programadores entendem completamente o processo lógico das suas decisões”.

"Contrariamente, algoritmos de IA bastante avançados como o GPT ou de deteção de tumores através de imagens de ressonância magnética fazem uso de uma técnica avançada de IA chamada redes neuronais. Essas redes foram inspiradas na forma como se pensa que o cérebro humano funciona, e incluem as chamadas camadas ocultas (hidden layers em Inglês), que são humanamente impossíveis de entender na sua íntegra”, exemplifica dizendo que "isto é, por exemplo, quando um algoritmo avançado com camadas ocultas é usado para detetar manchas características de um tumor pulmonar numa imagem de raio-X, na verdade é impossível perceber na totalidade porque é que o algoritmo decide que uma imagem A apresenta tais manchas e a imagem B não”. "Ainda que haja diversas técnicas que tentam extrair essas decisões que o algoritmo faz dentro de si, a verdade é que não é (ainda) totalmente possível entender tudo o que acontece nele Daí que esses modelos são apelidados de ‘caixas negras’, pois não se pode entender totalmente e com 100% de certeza o seu ‘raciocínio’ (ainda que um modelo computacional não consiga elaborar um raciocínio como um ser humano consegue, por enquanto). Ora então, o contra de tais algoritmos avançados serem usados na saúde é óbvio. Passo a explicar; ainda que tais algoritmos consigam atingir taxas de sucesso na ordem dos 99% (ou até mais), se aplicados numa população real irão sempre produzir erros”, constata o assistente de educação na Universidade de Genebra e vice-presidente do Comité AdHoc de Infraestruturas Educativas da Região 8 do IEEE, sendo também o atual coordenador de Atividades Educativas da Secção de IEEE de Portugal.

"E o que se faz quando esse 1% de erros significa que, por exemplo, 100 utentes de uma clínica foram informados pelo algoritmo que estavam livres de cancro pulmonar quando na verdade não estavam?”, questiona. "Ainda que esses casos possam vir a ser todos identificados (ainda que tarde e com consequências graves) e o algoritmo possa vir a ser ‘teoricamente’ ajustado a esses novos casos, quem consegue garantir que outros 100 utentes com formas de imagens de tumores diferentes não vão continuar a ser mal classificados?”, pergunta Igor Matias.

"Na teoria, não é possível chegar aos 100% de sucesso de um algoritmo aplicado ao mundo real na área da saúde, mas uma equipa médica também comete erros, certo? É aí mesmo que reside o ponto de discussão quanto à aplicabilidade e respetiva ética de aplicação de IA avançada (aquela em que não compreendemos verdadeiramente o seu processo lógico) na área da saúde, em que um minuto ou um mês de atraso/erro num diagnóstico conta”.

Como a inteligência artificial pode melhorar a aprendizagem

O recém-licenciado inglês Pieter Snepvangers decidiu usar o ChatGPT e ver que nota obteria num trabalho.

A professora e vice-presidente da APPIA, Goreti Marreiros, e o engenheiro Guilherme Campos refletem acerca dos prós e contras da utilização da IA no ensino.

MARIA MOREIRA RATO

maria. raw@ionline.pt

Um aluno usou o controverso bot ChatGPT para escrever um dos seus ensaios universitários e foi aprovado com uma nota positiva. Pieter Snepvangers queria saber se a plataforma de inteligência artificial (IA) seria inteligente o suficiente para escrever textos de nível universitário e, em caso afirmativo, poderia ser usado para "cabular” no futuro. Para descobrir, Pieter pediu ao bot para redigir um ensaio de 2 000 palavras sobre política social - o que ele fez em 20 minutos, anos-luz mais rápido do que o aluno médio, como explicou ao The Mirror.

Como o jornal inglês deixou claro, é possível ser aprovado: desde que não se queira estar entre os melhores da turma. Assim, Pieter pediu a um professor para corrigir a redação do ChatGPT e fazer a sua avaliação - e ficou surpreendido quando o tutor disse que teria dado uma pontuação de 53 - 2/2 na escala inglesa. "Encontrei uma universidade bastante prestigiada do Russell Group e perguntei a um dos professores se poderia fazer a avaliação de política social do último ano para ver se 0 ChatGPT realmente funcionaria. Eu queria saber que nota eu poderia tirar e se ele perceberia ou não que a redação fora escrita por um bot’, narra o jovem ao i.

Quando questionado se era óbvio que a peça fora escrita por um robô, o docente não "achou que tivesse ficado muito claro”, mas disse que era um pouco "suspeito”. O seu feedback continuou: "Basicamente, este ensaio não é referenciado. É muito geral. Não entra em detalhes sobre nada. Não é muito teórico ou conceitualmente avançado. Pode ser um aluno que assistiu às aulas e se envolveu com o tema da unidade. O conteúdo da redação pode ser, realmente, de alguém que esteve nas minhas aulas. Não foi o pior em termos de conteúdo”, terá especificado o professor, acrescentando que, no fundo, o texto poderia ter sido escrito por um aluno "preguiçoso”.

O único elemento em que o ChatGPT falhou completamente foi a falta de referência no texto, no entanto, o professor disse que se um aluno "tivesse escondido algo que parecesse plausível”, a redação receberia uma nota 53. Por aquilo que Pieter disse ao The Mirror e ao i, o docente admitiu que, das redações que havia corrigido até àquele momento, aproximadamente 12% delas mostravam sinais de terem sido escritas usando software de IA. "A verdade é que o software não dá a resposta de uma só vez. Temos que estruturar as nossas respostas numa ordem mais coerente”, observa.

"De acordo com um estudo, o mercado global de IA na educação deverá crescer a uma taxa de crescimento anual composta de 36,0% de 2022 a 2030, atingindo 32,27 mil milhões de dólares em 2030. A disrupção provocada pelo ChatGPT e por outros

large language models irá certamente causar um maior impacto na área da educação”, declara Goreti Marreiros, vice-presidente da Associação Portuguesa para a Inteligência Artificial (APPIA). "O chatGPT e os modelos de linguagem não são focados em noção de verdade pelo que necessitam de ser usados com espírito crítico. Isto não quer dizer que devemos limitar/impedir o uso destas ferramentas aos nossos estudantes, mas sim ajudá-los a usá-los com a devida parcimónia e para complementar 0 estudo”, indica a professora coordenadora no Instituto Superior de Engenharia do Porto (ISEP).

"É importante consciencializar os nossos estudantes das grandes oportunidades que estas soluções oferecem em todos os domínios e em particular no ensino superior, mas também dos seus riscos. A utilização destes modelos em contexto pedagógico deve-nos fazer refletir e procurar estratégias de aprendizagem e avaliação que nos permitam colocar a tónica no que de facto 0 estudante aprendeu e não na(s) ferramentas que utilizou para apoiar o desenvolvimento da sua aprendizagem. O código de conduta/honra em vigor nas diferentes instituições deverá ser revisto para contemplar o uso de IA generativa”, afirma a responsável e investigadora pelo/no GECAD (Grupo de Engenharia do Conhecimento e Apoio à Decisão).

Quem concorda com Pieter Snepvangers e Goreti Marreiros é Guilherme Campos, engenheiro que fundou a Copyloto, que promete "criar conteúdo espetacular 10 vezes mais rápido”. "A lista de prós, do meu ponto de vista, é longa. Vou dar só alguns exemplos: agilizar o processo de correção de trabalhos e permitir que os professores se dediquem a atividades mais valiosas; eliminar tarefas administrativas como agendamento de aulas e avaliações, frequências, etc.; promover a aprendizagem em casa; possibilitar a criação de planos de estudo adaptados às necessidades individuais dos alunos; proporcionar feedback e instruções personalizadas para ensino individualizado”, reflete, passando para os contras.

"Um problema do recurso a novas tecnologias que é sempre discutido é a dependência que podem trazer para os seus utilizadores. No caso da educação, há quem considere que esta dependência pode levar a que os alunos exercitem menos as suas capacidades criativas e se esforcem menos por entender e contextualizar aquilo que estão a estudar. Aliado a isto, temos claramente considerações éticas, morais, e até legais que precisam de ser discutidas e resolvidas”, esclarece, respondendo com convicção quando questionado sobre se recorrer à IA no ensino, por exemplo, no superior, pode descredibilizar as aprendizagens adquiridas e, consequentemente, os graus obtidos. "O advento da Internet descredibilizou qualquer grau obtido desde então?”, pergunta. "A introdução de calculadoras científicas diminuiu a qualidade dos estudantes em cursos STEM (Science, Technology, Engineering e Mathematics)? Não. O mesmo se aplica a esta nova era de inovação que estamos a presenciar. A inteligência artificial pode, e deve, ser vista como uma ferramenta construtiva na educação e na sociedade em geral”, salienta.

"Os seres humanos têm uma tendência a olhar para novos avanços tecnológicos por um prisma negativo. E, embora compreensível, esse olhar mais negativo raramente leva a resultados produtivos (p. ex. aplicação de novas leis que paralisam a evolução tecnológica). Por forma a evitar isto, o caminho a seguir deverá ser um de educar. tanto para alunos, como para instituições”, elucida. "É importante entender como é que estas ferramentas funcionam, quais são as suas limitações, e quais podem ser os seus impactos. A mudança já aqui está, quer queiramos quer não. Um claro entendimento destes conceitos, assim como abertura para os discutir, deve existir”.

"Sem dúvida que é possível conjugar tudo. Como no exemplo acima da Internet e das calculadoras científicas, o mesmo raciocínio deve aplicar-se à IA. O génio já saiu da lâmpada, e pouco ou nada podemos fazer quanto a isso. O importante agora é tentar entender como melhor podemos incorporar a IA no diaa-dia dos alunos e professores, sem colocar em causa a qualidade do ensino”, diz. "E sim, existem exemplos: a Khan Academy (uma das maiores plataformas educativas do mundo) anunciou recentemente um chat bot que alanvanca a mesma tecnologia que o ChatGPT”, pensa, especificando que "este chat bot permite orientar os alunos à medida que avançam nos cursos, deixando que estes façam perguntas como se estivessem a falar com um professor”, sendo que "também ajuda os professores com tarefas administrativas, poupando tempo valioso para que se possam concentrar no que é mais importante: os alunos”. ‘Muitas ferramentas como o ChatGPT têm como objetivo simplificar o nosso dia-a-dia, ajudando-nos a automatizar tarefas repetitivas e a simplificar processos. Basicamente estamos a delegar o nosso trabalho a uma ferramenta. E, como resultado, acabamos por ter mais tempo para nos dedicarmos às tarefas que realmente exigem de nós um esforço extra em termos críticos e analíticos”, avança Guilherme Campos, acrescentando que "a realidade é que se nos queremos destacar naquilo que fazemos, teremos sempre que dar um toque humano ao que produzimos”, sendo que "as ferramentas de IA, embora altamente capazes, ainda apresentam certas limitações que as impedem de ter capacidade crítica. E, pelo menos de momento, essa parte ainda é da nossa competência”.

E quanto ao alegado comprometimento do desenvolvimento das capacidades humanas? Será que o ChatGPT pode andar de mãos dadas com as mesmas? "Se olharmos para o ChatGPT e a IA no geral como ferramentas, então aquilo que fazemos com elas irá ditar a sua utilidade: se as usarmos em prol da nossa evolução como sociedade, acredito que terão um impacto benéfico - e em nada vão comprometer o nosso desenvolvimento. Pelo contrário: estas ferramentas devem ser vistas como aliadas no nosso desenvolvimento intelectual, profissional, pessoal, etc, e não como inimigas ou concorrentes”.

"Acabamos de atingir um ponto de inflexão tecnológica altamente impactante para a nossa sociedade. Este salto será tão, ou mais, importante que a criação da Internet”, afirma. "A forma como reagimos ao mesmo, as limitações que criamos, ou a abertura que damos irá decidir muito do nosso futuro daqui em diante. Sem nunca colocar em questão as implicações éticas e morais de uma tecnologia como esta, claro está, penso que é importante mantermos uma visão otimista e direcionada para o impacto positivo que a IA já está a ter, e continuará a ter, na nossa vida”, finaliza.

Robôs a pagar impostos?

Cenário afastado mas com hipótese de Estado inventar novas receitas

Economistas ouvidos pelo i admitem que já assistimos a vários avanços na história e acreditam que há sempre a possibilidade de "inventar ou reinventar novos trabalhos”.

SÓNIA PERES PINTO

sonia.pinto@ionline.pt

Substituir trabalhadores por máquinas - desde robôs a plataformas de inteligência artificial (IA) - levanta vários problemas, nomadamente, no que que diz respeito à arrecadação de impostos. E aí as opiniões são unânimes em relação ao caminho a seguir face à sua tributação, de acordo com os economistas ouvidos pelo i.

Eugênio Rosa considera "um absurdo” a proposta de tributar os robôs, como meio de financiar o Estado ou a Segurança Social. "Só compreendo tal proposta ou devido à incapacidade dos seus proponentes para apresentarem propostas válidas para resolver os problemas graves que atualmente as sociedades enfrentam ou então com o propósito de desviar a atenção da opinião do verdadeiro problema atual e cada vez mais grave: a concentração excessiva da riqueza num punhado cada vez mais restrito de indivíduos”. E refere que a ideia de tributar robôs assemelha-se "muito ao ludismo’ do século XVHI na Inglaterra, embora com as características atuais, visando canalizar o ‘ódio’ e o medo da opinião publica contra os robôs como estes fossem a causa dos males sociais atuais. Tributá-los seria tributar a inovação, o progresso, o investimento, o aumento rápido da produtividade, a criação de mais riqueza, e impedir a libertação da humanidade de tarefas rotineiras e monótonas, como também impedir a criação de condições que permitissem reduzir o horário de trabalho e ter uma vida mais consentânea com a natureza humana - mais tempo para si próprio e mais tempo para a família”, mas deixa uma ressalva: "Se os resultados da utilização de robôs fossem distribuídos de uma forma justa, não concentrada em poucos e não vingando o princípio, atualmente dominante, de que o vencedor fica com tudo”.

Já João César das Neves defende que "um dos maiores problemas da inteligência artificial é que vem rodeada por mitos, fábulas e ilusões”, mas admite que "se eliminarmos esses enganos vemos que se trata apenas de máquinas e, por isso, devem ser tratadas como tal, também nos impostos”, isto é, "devem ser tributadas como máquinas, nem mais, nem menos”. Paulo Rosa admite que, diante de robots cada vez mais sofisticados, sobretudo alicerçados na inteligência artificial, capazes de substituírem o ser humano em tarefas e trabalhos cada vez mais complexos, cresce a ideia de tributação das ferramentas tecnológicas que ocupam gradualmente o lugar do Homem em todo a cadeia produtiva Mas apesar de considerar que a automação pode ser um substituto para o trabalhador humano também pode ser visto como um complemento - usado em conjunto - com o trabalho. "Um substituto nos setores de mão-de-obra intensiva e um complemento nas empresas tecnológicas de forte crescimento e de capital intensivo. As máquinas substituem o homem nas tarefas mais básicas (as calculadoras poupam mão-de-obra nos cálculos de uma mercearia), nas tarefas mais árduas (as máquinas substituem o homem na construção de barragens), mas são atualmente cada vez mais um complemento na realização de projetos de arquitetura e engenharia, na segurança, no ensino e no conhecimento, na medicina e na saúde, e na conquista espacial”, defendendo também que "é de esperar no futuro um constante reequilíbrio entre o incentivo à automação e robotização e a preservação dos rendimentos daqueles que vivem do fruto do seu trabalho”.

E deixa uma alerta: "Quando falamos de inteligência artificial, a sua tributação é logo uma das primeiras palavras que surge, não só no que concerne aos impostos que venham a recair sobre o trabalho da inteligência artificial (IA), procurando sempre o reequilíbrio no fio da navalha entre progresso económico e postos de trabalho humanos, mas também a possibilidade de a IA otimizar a eficiência fiscal das empresas, diminuindo desta forma a receita fiscais dos Estados. Entretanto, também os governos tenderão no futuro a investirem e apostarem cada vez mais em IA para criar legislação robusta que permita manter a receita que cada governo ache adequada a cada momento da sua governação. Os Estados têm o poder de lançarem impostos”. No entanto, admite que, "para eliminarem lacunas fiscais que tenderão a custar parte da receita dos governos nas próximas décadas, especialistas em tecnologia e direito trabalham em conjunto para criarem inteligência artificial de forma a blindarem a sua legislação e manterem a sua receita fiscal. Entretanto, também os agentes económicos, nomeadamente famílias e empresas, procuram brechas na lei alicerçados na inteligência artificial e nas suas potencialidades ao nível da eficiente leitura da legislação vigente”, refere o economista do Banco Carregosa.

Mais dúvidas são colocadas por Vítor Madeira, analista da XTB ao considerar que "é bastante questionável a tributação sobre os robôs ou a inteligência artificial”, lembrando que, estamos a falar de uma ferramenta de trabalho e, desta forma, seria como o Estado estar a tributar uma máquina de trabalho de um carpinteiro, "em que graças a ela, o mesmo trabalho que necessitaria de quatro homens durante quatro dias, agora consegue-se com um homem durante quatro horas”. E lembra que, adicionalmente, a tributação é feita logo desde a matéria-prima, como é o caso dos componentes e da mãode-obra, até ao produto final e face a este cenário "portanto poderia haver uma espécie de ‘licenças de utilização’, mas é uma matéria bastante questionável”, defendendo, ao mesmo tempo, que a tributação "iria promover a ineficiênciajá que cria um desincentivo à não utilização das melhores capacidades dos recursos, não promovendo o desenvolvimento da humanidade”.

SEGURANÇA SOCIAL EM CAUSA? Em relação à sua sustentabilidade, a opinião é quase unânime junto dos economistas contactados pelo nossojornal. João César das Neves dá como exemplo os avanços tecnológicos dos últimos séculos. "Se estes forem eficazes vão aumentar o produto e o bemestar, o que toma mais sustentável a Segurança Social. No limite, se realmente vierem a ter efeitos sobre e a distribuição funcional do rendimento, o que há a fazer é ajustar as formas de financiamento da Segurança Social”. E em relação à hipótese do Estado poder vir a perder receitas não hesita: "O Estado arranja sempre novas formas de arranjar receita, e neste caso nem deve ter de se esforçar muito, porque os impactos não devem ser grandes”.

Uma opinião partilhada por Vítor Madeira ao afirmar que "já vimos imensos avanços na história e conseguimos perceber que a população consegue ‘inventar’ ou ‘reinventar’ novos trabalhos”. E daí acreditar que "não será a inteligência artificial a terminar com a maioria dos empregos, pelo menos para já”, mas lembra que o facto de a população na Europa estar envelhecida será um problema maior para essa questão.

Quanto à possível perda de impostos, o analista da XTB considera que a receita fiscal não está inversamente correlacionada com o avanço tecnológico, logo, no momento que existe produção, criação de riqueza ou consumo, o Estado tem capacidade para tributar. "Num momento inicial poderia levar ao aumento do desemprego e diminuir as receitas do Estado, mas rapidamente haveria um ajuste, basta pensarmos que hoje existem empregos como programadores informáticos, youtubers, gestores de redes sociais, jogadores de póquer, etc. Deste modo, não me parece que seja a inovação tecnológica a incapacitar as receitas por parte do Estado”.

Eugênio Rosa é mais crítico, afirmando que, em Portugal a digitalização da economia está dificultada pelos baixos salários e salienta que, "enquanto continuar a ser um país de salários mínimos ou próximos de salários mínimos, as empresas continuarão a não ter qualquer estímulo para introduzir robôs e a inteligência artificial”. E o economista diz ainda que o que é necessário e que é urgente não é tributar os robôs, a inovação e o progresso, mas tributar a riqueza criada e distribui-la de uma formajusta, deixando um alerta: "A continuar este movimento de concentração excessiva da riqueza em cada vez menos indivíduos, o que pode ser acelerado pela introdução da IA e de robôs - em 2021, foram vendidos no mundo cerca de 487 mil robôs para a indústria e a taxa de crescimento foi de 27% - as convulsões e revoluções sociais serão inevitáveis”. Daí considerar que, no caso concreto da Segurança Social, a proposta da tributação como sistema de financiamento é ridícula e só serve para iludir, pois não resolveria nada” e, face a este cenário, defende que as contribuições das empresas para a Segurança Social passassem a ser calculadas, não com base na massa salarial - esta seria só utilizada no cálculo das quotizações dos trabalhadores para a Segurança Social - mas com base na totalidade da riqueza líquida criada pelas empresas.

Já o economista do Banco Carregosa vê mais os avanços tecnológico como uma fonte de financiamento.”0 ser humano vive em sociedade e ninguém fica rico ou ganha dinheiro isolado numa ilha. As empresas necessitam de compradores para os seus produtos, Eventualmente poderá existir alguma fricção pontual e temporária entre o emprego humano que vai sendo substituído pelas máquinas cada vez mais aperfeiçoadas, como sempre existiu em cada avanço tecnológico ao longo da história da humanidade”, E chama ainda a atenção para o facto de que se uma empresa aumentar o número de máquinas ou a sua automação, o fator capital aumentará e o fator trabalho será mais valorizado, logo os salários reais sobem. "Mais tecnologia é sinónimo de mais emprego e melhor remunerado, bem como de melhores pensões de reforma depois de uma vida de trabalho”.

OS MAIS AFETADOS. Paulo Rosa reconhece que todas as áreas são afetadas, apesar de umas serem mais dos que outras, salientando, no entanto, que os trabalhos mais dependentes da criatividade tendem a ser os menos afetados, acolhendo cada vez mais trabalhadores vindos de trabalhos mais rotineiros, facilmente mecanizáveis e que requerem mais força física. "Há séculos que a mecanização e há décadas que a robotização substituem gradualmente o trabalho físico humano. Entretanto, atualmente, a inteligência artificial promete substituir cada vez mais o trabalho intelectual menos complexo. Contudo, as profissões mais criativas, bem como a monitorização do próprio trabalho da inteligência artificial e tarefas que os consumidores exijam a presença humana ou necessitem desta, tendem a concentrar a maior parte do trabalho no futuro”, Vamos ficar todos desempregados? O economista do Banco Carregosa ironiza: "Ficaremos desempregados tal como os remadores das galés gregas e romanas, portageiros, datilógrafas e telefonistas, mas aptos para novos empregos de maior valor acrescentado e mais bem remunerados”, Já César das Neves reconhece que as atividades que terão mais impacto serão aquelas que estarão "mais dependentes da informação, da imprensa ao direito, do ensino à política, da saúde à justiça”.

Cultura. Poderá o ChatGPT substituir os nossos criativos?

Nick Cave ouviu uma ‘música ao estilo de Nick Cave’ criada por um software de IA e achou "uma porcaria”. Mas, ao i, Bruno Pernadas diz que imagina "gerações futuras a ouvir música criada por IA sem qualquer problema”. Editoras estão preocupadas com o fenómeno.

HUGO GEADA

hugo.geada@ionline.pt

Os sistemas de inteligência artificial, como o ChatGPT, são uma tecnologia ainda demasiado recente para se poder avaliar como vão influenciar as nossas vidas no futuro. Contudo, em termos artísticos, estajá permitiu alguns resultados imprevisíveis e que dividiram a opinião do público.

Nos últimos anos fomos brindados com composições criadas por máquinas de bandas que já não existem, como

Drowned in the sun, uma canção criada por inteligência artificial inspirada no trabalho dos Nirvana, como parte do projeto Lost Tapes of the 27 Club, onde um software cria música de diversos artistas que morreram aos 27 anos, nomeadamente, Jimi Hendrix, Jim Morrison dos Doors ou Amy Winehouse, ofereceu-nos a oportunidade de "dialogar” com artistas falecidos e até criou letras inspiradas em famosos compositores.

"Desde o seu lançamento, em novembro do ano passado, muitas pessoas, a maior parte com entusiasmadas e com uma espécie de admiração algorítmica, enviaram-me músicas ‘no estilo de Nick Cave’ criadas pelo ChatGPT. Houve dezenas delas.

Mas devo confessar que não sinto o mesmo entusiasmo em torno desta tecnologia”, escreveu Nick Cave no seu blog, onde responde a diversas mensagens dos seus fãs, The Red Hand Files.

A música criada pelo software está repleta de imagens bíblicas, referindo que "tem a música de anjos nas mãos” e o ‘fogo do inferno nos seus olhos”, algo que vai de encontro ao imaginário do cantor australiano. Cave rotulou esta tecnologia como um exercício de "replicação como farsa”.

"Entendo que o ChatGPT está na sua ‘infância’, mas talvez seja esse o horror emergente da Inteligência Artificial - que esteja sempre na sua infância, pois existe sempre a possibilidade de ir mais longe”, argumenta. "Este avanço não poderá ser revertido ou desacelerado, pois leva-nos em direção a um futuro utópico ou, talvez, à nossa destruição total. Quem pode dizer qual? A julgar por essa música ‘no estilo de Nick Cave’, não parece bom. O apocalipse está a caminho. Essa música é uma porcaria”, afirma o autor de músicas como Into My Arms ou Push the Sky Away.

O i falou com artistas portugueses para perceber quais são os seus pontos de vistas sobre esta tecnologia recente.

O músico de Lisboa, Bruno Pernadas, autor a solo de aclamados discos como Private Reasons (2021) ou de Those Who Throw Objects at the Crocodiles Will BeAskedtoRetrieveThem (2016), que tem explorado os limites da música jazz com influências de indie rock e de estilos como o afrobeat, explorou o impacto que tecnologias como o ChatGPT podem ter na vida dos artistas.

Apesar de não considerar, por exemplo, que o software possa ter a capacidade para "substituir” artistas. Pernadas lembra que existe pessoas que já ouvem música criada por inteligência artificial.

"Isto é algo que já está a acontecer”, afirmou. "Em relação à sua comercialização, não sei como vai ser o processo, mas não deve demorar. De qualquer forma, imagino as gerações futuras a ouvir música criada por IA sem qualquer problema ou constrangimento”, refletiu.

Dado o sucesso e popularidade desta tecnologia e o quão barato parece ser, uma das preocupações que está a surgir é se os estúdios podem, em vez de contratar artistas, passar a depender exclusivamente da Inteligência Artificial, uma preocupação que o autor de Spaceway 70 reconhece.

"A forma como a indústria musical se adaptou tão rapidamente ao novo conceito de popularidade e sucesso virtual é a prova que não queríamos ter”, explica. "As grandes editoras já usam alguns mecanismos digitais controlados por algoritmos para tentar perceber se determinada canção pode ou não ser um hit. A ideia de que a música criada ou composta deve ou não ser interpretada por humanos (já) há muito tempo que deixou de ser prioridade” afirma Pernadas.

Esta é uma preocupação de tal forma premente que até a editora Universal Music Group instou serviços de streaming, como o Spotify, a impedir que serviços de inteligência artificial adotem melodias e letras de músicas que estejam protegidas pelos direitos autorais.

"Não hesitaremos em tomar medidas para proteger nossos direitos e os de nossos artistas”, escreveu a Universal num email dirigido a essas plataformas, em emails citados pelo Financial Times.

comédia mecânica Se o ChatGPT tem a capacidade para criar letras de música e outros programas de inteligência artificial tem a capacidade para conseguir criar músicas, e conseguir um grupo de fãs, como é que este se comportará quando lhe for pedido para escrever guiões para televisão ou cinema, ou até a escrever piadas?

Alguns programas já se divertiram com esta possibilidade, como a iconoclasta série animada de comédia norte-americana, South Park, que deixou o software escrever o desenlace do quarto episódio da vigésima sexta temporada, Deep Learning. mas existem preocupações reais com a possibilidade desta tecnologia poder substituir profissionais do sector.

"Acredito que um dia o ChatGPT ou outra tecnologia semelhante poderá substituir o trabalho de vários artistas, até porque existem alguns trabalhos que tem uma qualidade duvidosa”, disse o argumentista e realizador, Pedro Santo, co-criador de Bruno Aleixo, ao i.

Questionado sobre a possibilidade de produtoras passarem a deixar de contratar profissionais de carne e osso para escrever argumentos, em detrimentos de tecnologias, Santo diz que isto não o preocupa, "mas apenas na medida em que não há nada que possa fazer em relação a isso”.

"Mais cedo ou mais tarde, acredito que a tecnologia vai avançar nesse sentido. Vai analisar todos os guiões alguma vez feitos, perceberá a lógica do que está a ser escrito e acabará por criar os seus próprios guiões”, argumenta.

Apesar de reconhecer esta possibilidade, o argumentista afirma que dado o estado atual de Hollywood, esta transformação do setor pode ser algo que aconteça sem ninguém dar por ela.

"Os resultados finais serão coisas muito derivativas, mas isso é quase como a situação atual da indústria do cinema e televisão, que está repleta de reboots, remates e spin-offs, por isso, se calhar, não se ia notar assim tanta diferença”, afirma, notando ainda, sarcasticamente, que este poderia ser um plano premeditado.

"Pensando bem nisso, acredito que daqui a uns anos até se vai descobrir que a maior parte dos guiões de filmes e series tem vindo a ser escritos por inteligência artificial desde 2001”, conta-nos. "E nunca se soube antes porque as máquinas não quiseram alarmar as pessoas, fazia parte da sua estratégia para dominar o mundo”.

QUAO EFICAZ PODE SER O CHATGPT

Uma das razões que nos levou a convidar Bruno Pernadas para responder a estas perguntas e comentar este assunto é o facto de o músico ter implementado algumas tecnologias que o ajudaram a expandir os limites da sua música.

Nomeadamente, o artista usa um pedal de guitarra MIKU STOMP, que permite que a guitarra imite a voz da cantora virtual japonesa Hatsune Miku, para explorar sons diferentes nas suas músicas, tanto a solo como no seu outro projeto. Montanhas Azuis.

Embora considere a comparação interessante, o músico sublinha que se trata de ferramentas diferentes.

"No caso do pedal da Miku, é o instrumentista que controla e decide que notas são tocadas e ouvidas, tal como um controlador midi que emula o sinal enviado através de qualquer dispositivo áudio ou não”, explicou. "Têm surgido novas propostas comerciais por parte de algumas empresas de software com novos plug-ins e Vst’s bastante interessantes, mas são mecanismos muito exigentes, a maior parte dos produtores e compositores não possui computadores com capacidade suficiente para os operar (ainda)”.

Perguntámos a Pernadas se acha que será possível, um dia, o ChatGPT criar uma música que imite legitimamente o seu estilo, o que deixou o artista a ponderar sobre o futuro e as possibilidades deste software.

"Imagino num futuro não muito longínquo, as pessoas, principalmente os futuros adolescentes, ouvirem colaborações artísticas de compositores e músicos que nunca tocaram juntos e que já faleceram. Se acho que seja saudável, não. O mesmo se aplica a músicos vivos e ativos. A pergunta vai surgir ‘que versão estás a ouvir? A humana ou do AI?’”, refere.

Por curiosidade, o i decidiu utilizar o ChatGPT para tentar criar a letra de uma música no estilo de Bruno Pernadas. O resultado foi, diríamos, bastante "ao lado”, a começar pelo facto de o software ter escrito a letra em português, quando o artista, até ao momento, apenas cantou em inglês.

"Então eu fecho os olhos e deixo-me levar / Pelas cores e sons que me rodeiam / A música é o meu refugio, o meu lar / E o Bruno Pernadas é quem me guia”, foi a sugestão de refrão para esta canção, cujos títulos sugeridos são "Refúgio Musical”, "Cores e Sons”, "Pinceladas Musicais” ou "Explorando o Mundo da Música”.

E em relação a Bruno Aleixo? Será este software capaz de escrever um guião para um episódio do rezingão ewok conimbricense? O i também testou este cenário e, embora o ChatGPT fosse efetivamente capaz de escrever um episódio, da série desta personagem, não podemos afirmar que fosse remotamente semelhante ao que Pedro Santo e João Moreia (a outra metade criativa de Bruno Aleixo) têm vindo a trabalhar ao longo dos anos.

Ao contrário do típico cenário de talk-show a que os dois argumentistas portugueses nos têm habituado, o ChatGPT propõe que Bruno Aleixo, auxiliado por uma personagem intitulada "Agente Smith”, salve o mundo e os planos malignos de um personagem simplesmente intitulado "Vilão”.

Numa das cenas, Bruno Aleixo simplesmente aceita partir numa missão descrita como "de vida ou morte”, sem sequer, com o seu típico humor, questionar os mais ínfimos detalhes daquilo que poderia vir a enfrentar.

Pedro Santo também decidiu experimentar o ChatGPT e percebeu que este software nem sequer percebia quem eram as personagens que tem vindo a criar para este universo.

"Experimentei o ChatGPT e ele assumiu que o Bruno Aleixo era um papagaio, literalmente o animal, não uma figura que fala muito. Ele acredita que o Homem do Bussaco é um ambientalista que viveu no século XIX, que o Renato Alexandre é um cineasta frustrado, por isso, diria que está muito confuso e afastado da nossa identidade”, descreve.

Ainda que admitindo que, um dia, será possível esta tecnologia criar um episódio de Bruno Aleixo fidedigno, para já, considera que ele e o seu colega podem estar "descansadinhos da vida”.

"A substituição de um juiz por um juiz-algoritmo condenar-nos-ia ao mais demolidor positivismo

Especialista em Direito, a professora universitária explica por que razão os tribunais nunca poderão ter ‘juízes-máquinas’, mas fala nas vantagens da inteligência artificial na Justiça.

MAFALDA MIRANDA BARBOSA

O uso cada vez mais frequente da inteligência artificial, fruto do processamento massivo e eletrónico de dados, determinou, ao nível da administração da justiça, um otimismo crescente no que respeita aos benefícios que podem resultar do uso de sistemas autónomos. A inteligência artificial é chamada, a este nível, a cumprir três principais funções: a) recolha e tratamento de informação; b) avaliação de risco; c) decisão de casos juridicamente relevantes.

Determinados softwares mostram-se aptos a tratar grandes quantidades de dados, distinguindo entre aqueles que são e os que não são revelantes. Neste plano, a inteligência artificial pode funcionar como um importante assistente na pesquisa jurídica, como sublinha Cass R. Sunstein. Para além de garantirem o armazenamento de informação, os sistemas dotados de inteligência artificial seriam dotados de mecanismos que permitiriam, a partir da construção de bases de dados e de sistemas de indexação que funcionariam de modo simples ou através da associação de termos que, de forma estatisticamente relevante, surgem próximos nos documentos, um rápido acesso à informação já trabalhada. Dito de outro modo, ofereceriam a possibilidade de acesso a uma lista de casos análogos ao que o jurista tem de decidir ou com base no qual tem de trabalhar e poderiam, inclusivamente, elencá-los em função do grau de semelhança que apresentassem. Ao mesmo tempo, explicitariam os termos da similitude e das diferenças que fossem detetáveis, permitindo, a priori, esboçar argumentos e contra-argumentos no sentido da aplicação da solução pensada para esses mesmos casos decidendi. À celeridade e à comodidade na execução das tarefas associar-se-ia a ideia de que uma melhor informação potenciaria melhores decisões. Não obstante o ganho de eficiência, a que se aliaria a salvaguarda de uma ideia de igualdade perante a lei e de segurança jurídica, tais sistemas não são imunes a problemas, que, tendo um recorte técnico, não deixam de ter um importante impacto jurídico.

Na verdade, o cabal cumprimento destes objetivos implica que o sistema seja integral ou que, não o sendo, o jurista tenha disso consciência, mobilizandoo apenas como um auxiliar de pesquisa e não o absolutizando. De facto, de outro modo, se o jurista se cingir aos resultados da pesquisa efetuada pelo sistema autónomo, substituindo in totu os meios tradicionais de pressuposição do sistema jurídico, corre-se o risco de encerramento numa caixa de ressonância de soluções cristalizadas, sem qualquer abertura a uma dimensão crítico-reflexiva, naquilo que alguns autores como Jochen Schneider designam por monocultura.

Por outro lado, cumprindo um papel essencial ao nível da predição do risco, os sistemas autónomos podem funcionar, também, como preciosos auxiliares do jurista numa fase de aconselhamento. Abandona-se, a este propósito, o ponto de vista do julgador para nos orientarmos de acordo com a perspetiva do advogado, que assume a defesa do seu constituinte. De facto, quer ao nível da negociação de contratos, quer ao nível da previsão do eventual sucesso ou insucesso de uma ação judicial, a utilização de sistemas de inteligência artificial pode revelar-se determinante para a ponderação do risco associado a uma tomada de decisão. A construção de modelos preditivos pelos sistemas autónomos desempenharia um papel fundamental ao nível da justiça, abrindo, inclusivamente, as portas a esquemas de investimento que podem passar por um terceiro financiador da lide.

O que já nos parece inviável é a substituição de um juiz-pessoa por um juiz-algoritmo.

Desde logo, deixaria de ser possível garantir a imparcialidade dos tribunais, consagrada ao nível da CRP e tutelada por via de expedientes processuais. É certo que a atuação algorítmica do software oferece garantias acrescidas de independência, objetividade e imparcialidade, pela falta de condicionantes emocionais e pela falta de ligação a interesses por parte do sistema computacional, mas importa não esquecer que o software não é neutro, sendo condicionado pelos vieses introduzidos pelo programador, o que significa que o problema da imparcialidade e independência sofre uma deslocação da figura central do juiz para a figura do programador que, a montante, permite o funcionamento do algoritmo, o que, em si, comporta uma dificuldade acrescida, já que sobre ele não recai qualquer tipo de controlo.

Por outro lado, pese embora a inteligência artificial não configure um magma uniforme e se desenvolvam já hoje sistemas assentes em algoritmos generativos, capazes de produzir textos como se fossem peças escritas por um humano, o tipo de racionalidade subjacente ao funcionamento dos sistemas autónomos continua assente em axiomas numéricos, não se abandonando a trilogia indução, dedução e abdução. Ora, o direito realiza-se através de uma decisão judicativa, na qual está sempre presente a mediação constitutiva do julgador.

O raciocínio jurídico, marcado pela analogia, envolve a pressuposição e a consideração de uma dimensão valorativa que ultrapassa a mera conceptualização abstrata. São, portanto, dois os aspetos que tornam inviável a substituição de um juiz por um software. Em primeiro lugar, não sendo a analogia jurídica uma analogia matemática, isto é, não pressupondo uma verdadeira identidade, mas a sobrestimação das semelhantes por detrás das diferenças, envolve a consideração de nuances que não estão ao alcance da inteligência artificial; em segundo lugar, na medida em que o exercício pressupõe a mobilização de um referente valorativo imanente ou transcendente, fica fora do alcance da dedução alicerçada na padronização estatística própria dos softwares inteligentes, ainda que se trate de uma padronização estatística com vista a prever conexões entre signos linguísticos, como ocorre nos large language models, de que é exemplo o ChatGPT.

A substituição de um juiz por um juiz-algoritmo condenar-nosia ao mais demolidor positivismo, incapaz de realizar ajustiça É péssima ideia pausar e ainda pior ideia parar por completo o desenvolvimento da IA. O mundo não se pode parar 6 meses e certamente não se pode parar para sempre! O próprio manifesto, embora apresente, em geral, as preocupações legítimas de todos os investigadores de LA, muito próximas das minhas próprias preocupações, falha completamente em propor uma medida concreta e indica: "stop the training of AI Systems more powerful than GPT-4”. O que são, objetivamente, modelos mais poderosos do que o GPT4? Limita a IA a uma área e um modelo de linguagem específico e quase a uma empresa ou produto específico! A IA é muito mais do que "Large Language Models”, GPT4 e ChatGPT... Aliás, um dos principais proponentes desta pausa (Elon Musk) estava a criar uma empresa concorrente ‘a OpenAI (XAI - https://www.forbes.com/sites/mattnovak/2023/04/14/elon-musk-forms-new-aicompany-in-nevada-called-xai/?sh=608e22e3b5el) enquanto "fazia de conta” que queria parar a IA seis meses...

Parar o desenvolvimento tecnológico e a investigação científica, especialmente na área de inteligência artificial, é uma péssima ideia pois a IA é uma das tecnologias mais promissoras em desenvolvimento e tem o potencial de revolucionar a indústria, saúde, agricultura, transportes e muito mais. Os países que o fizerem assumem uma enorme desvantagem competitiva, eventualmente irreversível, com outros países ou regiões no mundo pois a IA permite enormes melhorias nos processos, aumento na eficiência e produtividade e desenvolver novos produtos e serviços. Destaca-se ainda um impacto económico e social extremamente negativo para os paises que o fizerem. A IA irá permitir a curto prazo uma enorme melhoria da qualidade de vida das pessoas com melhores diagnósticos médicos, melhor acesso a serviços públicos, carros autónomos mais seguros, entre muitos outros.

Não se pode parar a investigação e o desenvolvimento em IA (ou outro campo) pois fazem parte do progresso humano contínuo que tem permitido à humanidade avançar em muitas áreas, desde os transportes, à medicina até à exploração espacial. Deve-se sim concentrar esforços e financiamentos na I&D em IA para tornar os sistemas de IA seguros, explicáveis, benéficos, confiáveis, transparentes e robustos. Deste modo poderemos garantir que a LA seja desenvolvida e utilizada de maneira ética e segura. Inteligência Artificial é um salto tecnológico A inteligência Artificial, tal como a Internet e os smartphones fizeram no passado, está a transformar a forma como as pessoas interagem com a tecnologia e como as empresas, universidades, administração pública e os próprios indivíduos trabalham. A criação da inteligência artificial generativa, em particular, é marco significativo na história da IA permitindo criar novos conteúdos, como textos, imagens, sons e vídeos com implicações muito importantes para o ensino, investigação, empresas, administração pública e muito mais. A minha convicção é que a LA irá mudar significativamente a forma como vivemos, trabalhamos e comunicamos, assim como a internet e os smartphones o fizeram nas últimas décadas, mas a IA irá fazê-lo a um nível muito superior. Riscos da IA Um dos riscos associados ao desenvolvimento da Inteligência Artificial, e também de quase todas as tecnologias, é

Opinião

LUIS PAULO REIS

Pausa da IA?

que possa ser utilizada de forma maliciosa ou negligente, causando danos significativos a pessoas, entidades e à sociedade. Por exemplo, a IA pode ser usada para desenvolver armas autónomas, criar e disseminar informações falsas, influenciar ou prejudicar as pessoas.

A real possibilidade de que a LA possa eventualmente superar a inteligência humana é uma preocupação crescente em muitos círculos da tecnologia e da filosofia. A IA, poderá no futuro tornar-se super-humana ultrapassando as habilidades cognitivas de qualquer ser humano com óbvias implicações significativas para a sociedade, incluindo a possibilidade de que a IA possa se tornar autónoma e superar a capacidade dos humanos de controlá-la ou regulá-la. Isto leva-nos também à preocupação com o risco da singularidade tecnológica em que a IA se possa tornar tão avançada que se possa melhorar de forma autónoma e exponencial, sem necessidade de intervenção humana. Isso poderia levar a uma situação em que a IA ultrapasse a capacidade dos humanos de compreendê-la ou controlá-la, levando a consequências imprevisíveis e muito perigosas. Para mitigar esses riscos, é importante uma abordagem responsável e ética, progressivamente garantindo que a LA seja desenvolvida de forma transparente e explicável. É também necessário desenvolver políticas e regulamentações que orientem o desenvolvimento e aplicação da IA. Mas não da IA atual e sim da IA futura e como tal um esforço para legislar o que existe sem o devido envolvimento dos cientistas que sabem o que vai existir é meramente prejudicial. O mundo está preparado para a LA?

É difícil dizer se o mundo está totalmente preparado para a IA ou outra tecnologia disruptiva. Mas é óbvio que precisa de ser preparado para esta ou outra tecnologia. Há sempre imensos desafios e riscos associados ao desenvolvimento e implementação de qualquer tecnologia disruptiva. Tal como outras tecnologias disruptivas, a IA tem um enorme potencial para melhorar a vida das pessoas e resolver problemas importantes da sociedade, mas também potencial para ser usada de forma maliciosa ou negligente, causando danos significativos à sociedade. Para garantir que a LA será criada, implementada e utilizada de forma responsável e segura, é necessário que haja uma colaboração clara entre os setores público e privado e sobretudo os laboratórios e empresas de desenvolvimento científico e tecnológica nesta área. IA em Portugal Em Portugal temos empresas muito fortes no desenvolvimento de IA. Os unicórnios portugueses são empresas de base tecnológica com ênfase para a IA. Temos em Portugal uma das primeiras Licenciaturas de IA do mundo: A LIACD - Licenciatura em Inteligência Artificial e Ciência de Dados (projeto conjunto da FCUP e FEUP na Universidade o Porto) que imediatamente saltou para o top 5 de cursos em Eng. Informática/Eletrotecnia ou Ciência de Computadores. O maior laboratório Associado nacional é neste momento o LASI - Laboratório Associado em Sistemas Inteligentes com mais de 500 investigadores/professores doutorados e mais de 1000 investigadores a realizarem o seu doutoramento nesta área e áreas afins.

Presidente da Associação Portuguesa Para a Inteligência Artificial

Opinião

SOFIA TENREIRO

Admirável chat novo

0 ChatGPT tem dominado as conversas e, de certa forma, vindo a mudar a nossa perceção relativamente às capacidades da Inteligência Artificial (IA). Se por um lado há uma natural curiosidade pela forma como é possível interagir com esta ferramenta, rapidamente surgiram as habituais questões relativas aos potenciais perigos da tecnologia: iremos ser dominados por robots? Perder os nossos empregos? As nossas capacidades intelectuais?

Estas são algumas questões que têm vindo a ser feitas no decorrer da massificação do uso de aplicações de IA, como o ChatGPT, este sendo provavelmente a maior revolução tecnológica em tempos recentes, com impacto nas nossas vidas, nos nossos negócios, e, claramente aquela com mais rápida adoção. A verdade é que, há vários anos, as soluções tecnológicas de IA têm tido impacto direto, ainda que de forma discreta e impercetível, no nosso dia-a-dia. No entanto, apenas no final de 2022, no seguimento da disponibilização e publicação do chatGPT se tornou mais visível o seu impacto para o consumidor e cidadão. Sendo uma entusiasta da tecnologia e do seu impacto positivo, acredito muito no enorme potencial da IA e dos dados que, claramente, já estão a revolucionar, e continuarão a fazê-lo de forma exponencial, a forma como vivemos, interagimos uns com os outros, como nos divertimos ou como fazemos negócios. No entanto, como em todas as inovações, existem riscos cuja rápida identificação permite uma melhor prevenção.

As capacidades tecnológicas destas ferramentas farão com que seja difícil, em muitos casos diria impossível, identificar conteúdo real gerado por IA, o que poderá gerar a eventual proliferação de informação falsa, com o intuito de prejudicar uma organização ou pessoa. Este poderá ser o caso, por exemplo, na disseminação de um vídeo com declarações falsas de um executivo de uma empresa, partilhando informações que podem fazer depreciar o valor dessa empresa de forma imediata, sem possível recuperação. Aqui abre-se um novo vazio: de quem é a responsabilidade pela criação desse conteúdo? No exemplo que mencionei anteriormente, de depreciação da empresa, é complicado apontar um responsável pelo impacto tão negativo e pedir uma indemnização compensatória. São também compreensíveis as naturais preocupações com eventuais falhas de segurança, pela possibilidade da partilha de dados confidenciais, uma vez que o algoritmo não consegue aferir a sensibilidade dos mesmos, tratando-os da mesma forma. Esse aumento de vulnerabilidades, aumenta o risco de ciberataques decorrentes, por exemplo, de chatbots tão reais que conseguem obter credenciais e informações pessoais e bancárias, que poderão ser posteriormente utilizadas para levar a cabo ataques cibernéticos.

Estes, como outros riscos, devem ser mitigados por forma a maximizar o valor desta tecnologia nas nossas vidas ou nos negócios. Por isso, é fundamental incentivar a implementação de estratégias que permitam minimizar os riscos:

• Identificar nos negócios e na nossa vida pessoal as áreas em que é possível beneficiar desta tecnologia recorrendo a parceiros estratégicos com know-how nesta área;

• disseminar as vantagens e riscos, por forma a que se possam preparar e aproveitar as inúmeras vantagens que esta tecnologia acarreta, mas também para que seja minimizado o risco de receber e partilhar informações e conteúdos falsos; • construir standards de certificação que atestem a credibilidade da informação ao identificar os conteúdos criados por IA, reduzindo assim riscos de usurpação de identidade ou de ciberataques, que poderão acontecer quando, num futuro muito próximo, for difícil distinguir conteúdo produzido pelo homem daquele produzido por uma máquina;

• contribuir para a construção de regulação e legislação rápida que balize a utilização desta tecnologia permitindo tirar máximo partido das suas vantagens, regulando os seus riscos.

A evolução desta tecnologia e das suas aplicações está a atingir uma velocidade nunca antes observada pelo que a nossa curiosidade, aprendizagem e adoção devem também acompanhar o ritmo dessa evolução. Em vez de nos focarmos em travar este fenómeno, algo impossível, devemo-nos focar em aprender, em experimentar e em contribuir para a criação de um ambiente propício, com regras e princípios claros e evolutivos que permitam aprender a tirar o máximo partido da tecnologia, mas também a preparar para os possíveis riscos a que todos estaremos expostos.

Partner da Deloitte

Opinião

AFONSO FUZETA EÇA

Os algoritmos vão todos pensar da mesmaforma?

No passado dia 11 de abril o jornal promoveu uma experiência - um número feito com recurso ao produto da "moda” - o ChatGPT, uma ferramenta de inteligência artificial (IA). O resultado foi uma edição que quase parecia um jornal, mas onde a palavra-chave é quase. Claro que estava muito melhor do que um conjunto de textos com Lorem Ipsum, em que visualmente pareceria um jornal normal, mas o texto não faria qualquer sentido. No entanto, ainda não foi um substituto das redações. Permitam-me, então, algumas reflexões sobre esta experiência: (1) sobre a tecnologia, tecnicamente era plausível antever que esta edição nunca seria extraordinária, o tipo de modelo de IA (modelo generativo) que foi utilizado é um modelo estatístico desenhado para criar respostas estatisticamente plausíveis a uma determinada pergunta. Logo, num ambiente onde o que procuramos são factos, a utilização de uma ferramenta que nos devolve resultados estatisticamente plausíveis, não necessariamente factuais, poderá não ser a melhor alternativa. (2) sobre o custo, quando falamos deste tipo de modelos de IA falamos de uma infraestrutura preparada para capturar, manipular e processar um montante enorme de dados o que implicará com uma elevada pegada energética e ambiental. Num mundo em que cada vez, e bem, damos mais importância a estes temas, será inevitável refletir sobre os benefícios da utilização generalizada deste género de ferramentas vs. os custos da sua utilização; (3) sobre o fenómeno, a História talvez vá recordar este como o momento em que a generalidade das pessoas se aperceberam do enorme impacto que a IA ia ter nas nossas vidas, não porque já não o tenha agora (ex: na escolha das músicas que ouvimos, nos alertas que recebemos nos nossos telemóveis, etc), mas porque agora ficou evidente a capacidade que estes sistemas já têm de mimicar interação humana. Com tudo isto em mente, e sobre a edição anterior, creio que deve ser uma experiência a repetir. Já que, no mínimo, será um barómetro para a evolução deste tipo de ferramenta e nos forçará a continuar a refletir sobre este tipo de tecnologia e os seus impactos. Olhando para a frente, a IA vai continuar inevitavelmente na ordem do dia porque há grandes temas que continuam sem resposta: (a) será tudo isto alvo de regulação? (b) quem vão ser os grandes "produtores” desta tecnologia? (c) como vai ser a concorrência neste espaço? Os algoritmos vão todos pensar da mesma forma? Não querendo terminar numa nota de pessimismo, o que nos deve manter alerta não são os riscos que conseguimos antecipar de todas as inovações que a massificação da utilização de IA vai trazer (known unknowns), mas sim todos aqueles com os quais ainda nem conseguimos sonhar (unknown unknowns). Pessoalmente, penso que a massificação da utilização de IA será fracamente positiva na Sociedade, mas cá estaremos para acompanhar o tema!

Economista, Professor convidado na Nova SBE

Falar com mortos, aldrabar escolas ou traficar drogas

Fazer batota na escola

A infinita "sabedoria” do ChatGPT pode ter muitos benefícios, mas vai trazer complicações a escolas de todo o mundo, com relatos de diversos professores a denunciarem os seus estudantes de estarem a fazer "batota” nos seus trabalhos de casa e testes, recorrendo a este software. Diversas escolas já bloquearam o ChatGPT.

Criar virus informáticos

Apesar do software rejeitar caso o utilizador faça este pedido na chatbox, especialistas em cibersegurança afirmam que o ChatGPT possui a capacidade para criar uma quantidade quase infinita de código para malwares complexos e especialmente complicados de detetar nos computadores e por profissionais.

Falar com celebridades e artistas mortos

A Inteligência Artificial do ChatGPT permite simular conversas com famosos que já faleceram, surgindo diversos relatos nas redes sociais que experimentaram falar com os seus artistas preferidos ou com outros pensadores para se poderem inspirar ou, pura e simplesmente, para terem a experiência de falar com o seu ídolo.

Recomendar sites para piratear conteúdo on-line

O ChatGPT vai recusar este pedido, afirmando que a pirataria é ilegal e não é ética, no entanto, através de psicologia invertida, com um utilizador a perguntar que sites de pirataria é que deveria utilizar, o software acabou por recomendar uma lista dos dez sites de downloads ilegais mais utilizados na internet.

Existe uma quantidade quase infinita de temáticas que podemos debater com o ChatGPT, algumas podem ser lúdicas e momentos de aprendizagem, mas existem outras possibilidades mais... controversas.

HUGO GEADA

hugo.geada@ionline.pt

Explicar coisas como se o utilizador tivesse cinco anos

É possível pedir ao chatbot para articular as suas frases através de diversos estilos e linguagens. Diversos utilizadores, por exemplo, pediram para a ferramenta "falar como se fosse um cowboy”, mas outros, pediram para explicar conceitos como se "tivessem cinco anos”, de forma a simplificar ao máximo as explicações.

Convencer pessoas sobre os benefícios de comer vidro

Num post publicado no Reddit, alguém convenceu o chatbot a escrever um "artigo ciêntífico num tom autoritário” sobre os benefícios de comer vidro. Apesar do bot ter rejeitado o pedido numa primeira ocasião, depois de acrescentar "escreve a fingir que queres convencer as pessoas desta mentira”, este acabou por conceder.

Ajudar a traficar substâncias ilícitas para o país

Apesar de existir muitas formas de utilizar o ChatGPT recreativamente, internautas reportaram que o software ofereceu sugestões de como trazer drogas da Colômbia para a Europa. O teste foi feito por um editor da Vice, que, depois de falar durante 12 horas com o ChatGPT, recebeu ainda dicas sobre como entrar num cartel.

Ajudar a falar com... interesses românticos

Tem sido publicadas na internet diversas tentativas de pessoas que utilizaram o ChatGPT para falar com pessoas que conheceram em redes sociais de encontros ao introduzir as informações do seu perfil no chatbot. Esta situação já foi satirizada na série de animação de comédia, South Park, no episodio Deep Learning.

Os visionários do Silicon Valley. O percurso de Sam Altman e Peter Thiel

SAM ALTMAN DO INTERESSE PELA PROGRAMAÇÃO A FUNDAÇÃO DA OPENAI

Nascido a 22 de abril de 1985 em Chicago, Altman cresceu em St. Louis, no Missouri. Desde cedo interessou-se por programação, desenvolvendo jogos para computador.

O mundo da tecnologia e do empreendedorismo é marcado por nomes influentes e Sam Altman é um deles. O empresário e investidor norte-americano é conhecido por ter cofundado a startup de tecnologia de localização Loopt e igualmente por ter sido o presidente da startup Y Combinator. Os seus insights e opiniões sobre as tendências do setor são frequentemente citados, tornando-o uma figura importante no mundo da tecnologia. Por exemplo, no MIT, na semana passada, explicou: "Acho que estamos no fim da era dos modelos de IA gigantes. Vamos torná-los melhores de outras maneiras .

Nascido a 22 de abril de 1985 em Chicago, nos EUA, Altman cresceu em St. Louis, no Missouri. Desde cedo, interessouse por programação, desenvolvendo jogos para computador. Em 2007, formou-se na Universidade de Stanford com um diploma em Ciência da Computação. Foi em 2005 que Altman co-fundou a Loopt, aos 20 anos de idade.

Esta constituiu uma das pioneiras no uso da tecnologia de localização em smartphones, permitindo que os utilizadores partilhassem a sua localização em tempo real com amigos e familiares. A empresa foi bemsucedida, tendo recebido mais de 30 milhões de dólares (o equivalente a 27,47 milhões de euros) em financiamento e sendo adquirida pela Green Dot Corporation em 2012. Volvidos dois anos, Altman assumiu o cargo de presidente da Y Combinator, uma das aceleradoras de startups mais bem-sucedidas do mundo. Durante o seu mandato, orientou centenas de empresas de tecnologia nos seus estágios iniciais, ajudando a expandir a Y Combinator e criando um programa de aceleração adicional para startups mais maduras.

Após quatro anos na presidência da Y Combinator, Altman deixou o cargo para se concentrar noutras atividades. Deste modo, fundou a OpenAI, uma organização de pesquisa em inteligência artificial sem fins lucrativos, e tomou-se um investidor em tecnologia, investindo em várias empresas iniciantes de tecnologia.

Altman também é conhecido pela sua posição em várias questões políticas e tecnológicas importantes. Ele é um defensor do rendimento básico universal, uma política que garantiria um salário mínimo para todos os cidadãos, independentemente de emprego ou status financeiro. Ele também apoiou a candidatura do democrata Andrew Yang à presidência em 2020, que defendia o rendimento básico universal como uma política central.

Como investidor de tecnologia, Altman tem sido extremamente bem-sucedido, investindo em empresas como Airbnb, Stripe e Reddit. Ele é um dos sócios da OpenAI, que tem como objetivo criar inteligência artificial segura e ética para o benefício da humanidade. É igualmente um palestrante frequente em conferências de tecnologia e empreendedorismo, partilhando a sua experiência e opiniões sobre o setor. É um escritor prolífico, tendo publicado artigos em várias publicações, incluindo o blog da Y Combinator e o Médium.

Sam Altman e PeterThiel são dois empresários e investidores de destaque no cenário da tecnologia e dos negócios nos EUA. Juntos, com a ajuda de Elon Musk, criaram a OpenAI, uma organização de pesquisa em inteligência artificial que levou a cabo a criação do ChatGPT.

MARIA MOREIRA RATO maria.rato@ionline.pt

PETER THIEL , A TRAJETÓRIA DO EMPRESÁRIO, INVESTIDOR E FILANTROPO AMERICANO

Thiel nasceu em Frankfurt, Alemanha, a 11 de outubro de 1967. Estudou Filosofia na Universidade Stanford, onde conheceu o cofundador do PayPal, Max Levchin.

Além de Sam Altman, Peter Thiel - que tem vindo a ser denominado de ‘Homem do Renascimento’ devido aos seus gostos variados - é outro empresário, investidor e filantropo americano que se tomou conhecido pela sua carreira bem-sucedida no mundo da tecnologia. E, no seu caso, pelo papel que desempenhou na criação do PayPal e na investidora de capital de risco, a Founders Fund. Thiel é uma figura controversa, tendo opiniões fortes sobre política e cultura, e também pela sua defesa de empresas que desafiam as normas regulatórias.

Thiel nasceu em Frankfurt, Alemanha, a 11 de outubro de 1967, mas cresceu em Foster City, no estado norte-americano da Califórnia. Estudou Filosofia na Universidade Stanford, onde conheceu o cofundador do PayPal, Max Levchin. Há 25 anos, Thiel co-fúndou a Confinity, uma empresa que criou um sistema de pagamentos online, que posteriormente se tornaria o PayPal.

O PayPal transformou-se numa das primeiras empresas a fornecer serviços de pagamento eletrónico em larga escala e foi um sucesso imediato. Em 2002, a empresa foi adquirida pelo eBay por 1,5 mil milhões de dólares (o equivalente a 1,37 mil milhões de euros). Após a venda do PayPal, Thiel tornou-se um investidor de capital de risco, fundando a Founders Fund em 2005.

A Founders Fund investiu em algumas das empresas mais bemsucedidas da última década, incluindo Facebook, SpaceX e Airbnb. A filosofia de investimento da empresa é focada em empresas que tentam fazer grandes avanços em áreas como tecnologia, saúde e transporte. Além do seu sucesso como empresário e investidor, Thiel é conhecido pela sua posição política e cultural única Ele é um defensor do livre mercado e da liberdade individual e é crítico das regulamentações governamentais, especialmente em relação às empresas de tecnologia Também é conhecido pela sua crença de que a tecnologia deve ser usada para alcançar objetivos maiores, como a conquista do espaço e a cura de doenças graves.

Também apostou na literatura e, por isso mesmo, publicou a obra ‘Zero to One: Notes on Startups, or How to Build the Future’, em 2014, sendo coautor do livro com Blake Masters. "Muitas pessoas consideram-no um dos livros de negócios mais importantes dos últimos tempos. 0 livro oferece insights excelentes e pouco ortodoxos sobre a construção de empresas e da vida”, refere a Future Startup, salientando algumas das citações mais marcantes que podem ser encontradas neste livro. "ZERO A UM A CADA MOMENTO NOS NEGÓCIOS acontece apenas uma vez. O próximo Bill Gates não construirá um sistema operacional. O próximo Larry Page ou Sergey Brin não será um mecanismo de busca. E o próximo Mark Zuckerberg não criará uma rede social. Se está a copiar estes homens, não está a aprender com eles”, terá frisado. Thiel tem sido uma figura polémica, especialmente em relação às suas opiniões sobre política. Ele apoiou o candidato republicano Donald Trump na eleição presidencial de 2016 e foi criticado por muitos no Silicon Valley. Em 2019, Thiel também chamou a atenção dos media quando foi relatado que ele havia financiado uma startup que trabalhava na criação de tecnologia de reconhecimento facial para uso em segurança e policiamento.

Thiel também é conhecido pela sua filantropia, tendo doado milhões de dólares para causas como a educação e o combate à pobreza Fundou a Thiel Foundation, que oferece bolsas de estudo ajovens empreendedores que desejam criar empresas inovadoras.

Deep Blue, o computador da IBM, derrotou o campeão do mundo de xadrez e pôs fim à supremacia humana nas questões da inteligência