Guys! There is so much information, opinions, fears, and doubts that I do not even know where to start! So, let us break it into parts.
1. What is the ChatGPT (Chat Generative Pre-trained Transformer) from OpenAI? According to the World Association of Medical Editors (WAME), a chatbot is a tool (do pay attention!) that uses artificial intelligence, automatic rules, natural language processing, and machine learning. This type of tool is called an LLM (Large Language Model), which generates content in text format. Other artificial intelligence programs can generate images (art, for example) or sounds (music, for example).
Is it clear? No? Well, I also find it difficult to understand since it is not something I have dealt with over the years. Artificial intelligence refers to the notion that computers can learn and make decisions like humans. However, it requires rules that, when automated, make the process much faster. Natural language processing is nothing more than translating "computer language" so that a lay user like us can interact with the computer using our usual language, also called natural (https://www.take.net/blog/tecnologia/nlp-processamento-linguagem-natural/). In addition, for true intelligence, it is necessary for the computer to use the information received (learn) to improve its responses. As you can infer, the process is increasing, hence the label of intelligence.
Chatbots (a nickname for computer programs that converse with the user, making themselves appear human) are already very familiar to us, answering our phone calls to companies (press 1 for sales, press 2 for finance, etc.), responding to our commands (Alexa or Siri), or when we order food. The ChatGPT is more sophisticated, being able to generate or create something new, which did not exist before. Thus, it can generate texts, presentations, letters, essays. However, because it is a machine (without emotions or ethical values), it can, based on the information received previously, generate responses that seem coherent and plausible, but which, in fact, are false and even meaningless. Therefore, human-machine interaction remains of paramount importance, as the user can then curate the text, eliminating inaccuracies and improving the quality of the text produced. But beware! It does not work like Google, that is, it does not search for information on the internet, at least in this initial free version. This means that the more we use this program, the better it may be able to respond in the future. And, depending on what it is fed with, it can create products for illicit and malicious uses.
Among many others, an article in the New York Times in January 2023 reports that the first official version of the program was launched in November 2022 and that, therefore, it is still very new, but millions of Americans have already tried it. In fact, when I tried to access the company's website and sign up to use the program, the response given was somewhat like this: "We are currently fully booked. Please wait for an email that we will send you as soon as possible." Does it sound familiar? Well, I never received that email. I decided to try again, and success! I confess I was fascinated by the speed and quality of the responses I received. I asked him where he got the information from, and he replied that he had been trained on a wide variety of text sources on the internet and other formats of information such as books, scientific articles, and other sources including information from reliable sources such as medical journals, government organizations, and higher education institutions. That is, it does not perform real-time searches like Google, but it does have access to all information that we access daily.
And furthermore, if you log in again, it remembers you and keeps a history of everything you have done. In theory, you can specifically request for it to delete the generated information. I have not tested it.
2. What do editors say about using the program to write or improve scientific texts? Given the quality of the generated texts, it becomes a real possibility for individuals to use the tool to generate articles, reviews, essays, and editorials to submit to scientific journals. In response to this question, WAME ( Chatbots, ChatGPT, and Scholarly Manuscripts, https://wame.org/page3.php?id=106 3/10) has defined new guidelines. The "Recommendations on ChatGPT and Chatbots in Relation to Scholarly Publications" state that:
Chatbots cannot be authors,
Authors must inform when and how chatbots were used,
Authors are responsible for the work developed by the chatbot in their article, including the accuracy of the information and the absence of plagiarism, and must correctly attribute the chatbot's contribution.
Editors need appropriate tools for detecting text generated or modified by artificial intelligence, which need to be available regardless of whether they can be paid for.
And why is this? Because we are talking about a program, and just as Microsoft is not responsible for the content of texts generated in Word, the company OpenAI cannot be held responsible for the misuse of its program. The final responsibility, according to ICMJE guidelines, always lies with the authors.
3. Why are the scientific community and publishers concerned about this tool? There are many well-written texts that discuss the various aspects surrounding the use of ChatGPT by researchers. Here are some examples:
Stokel-Walker C & Van Noorden R. What ChatGPT and generative AI mean for science (Nature 614, 214-216 (2023). doi: https://doi.org/10.1038/d41586-023-00340-6
Flanagin A. Editorial. Nonhuman “Authors” and Implications for the Integrity of Scientific Publication and Medical Knowledge (JAMA, January 31, 2023. doi:10.1001/jama.2023.1344)
Mollick E. ChatGPT Is a Tipping Point for AI (Harvard Business Review https://hbr.org/2022/12/chatgpt-is-a-tipping-point-for-ai)
But I have also read articles in the New York Times, the Guardian, O Globo, O Estado de São Paulo, Retraction Watch, Medscape, Google, THE (Times Higher Education), STM (Scientific, Technical and Medical Publishers), The Conversation, Scholarly Kitchen, Moressier Newsletter, The Publication Plan, a veritable flood of opinions, impressions, and analyses, trying to glimpse our future with an artificial intelligence that seems truly intelligent! Furthermore, there are already manuscripts produced using the program. A good example is the review written by Blanco-Gonzalez et al. The Role of AI in Drug Discovery: Challenges, Opportunities, and Strategies, accessible at arXiv:2212.08104, where the authors highlight the importance of human intervention to guarantee that the text generated is not false or plain fanciful.
I chose here to focus here only on some of the implications for integrity and ethics, which are many. Renata Cafardo writes an excellent column in O Estado de São Paulo on February 17, where she highlights that "education is, more than ever, thought," the improvement in reasoning, evaluating, criticizing, debating, deciding and, undoubtedly, very important, separating the wheat (honesty) from the chaff (dishonesty). Urgently, she calls for a focus on what she calls media (digital) education. This is at the level of primary and secondary education in schools. And at universities? In an environment of generating new knowledge, issues of integrity and honesty become even more pressing. Thus, we are back to issues of integrity and honesty because it is bad intention that creates the parallel universe of fake information, fraudulent science and more.
ChatGPT: A maior novidade do ano! - -traduzido para o inglês pelo ChatGPT mas com a minha curadoria :)
Gente! É tanta informação, palpites, temores e dúvidas que nem sei nem por onde começar! Então vamos por partes.
1. O que é o ChatGPT (Chat Generative Pre-trained Transformer) da empresa OpenAI ? De acordo com WAME (World Association of Medical Editors) um chatbot é uma ferramenta (atenção!) que utiliza inteligência artificial, regras automáticas, processamento de linguagem natural e aprendizado de máquina. Esse tipo de ferramenta é denominado LLM (Large Language Model) sendo geradora de conteúdo em formato de texto. Outros programas de inteligência artificial podem gerar imagens (arte, por exemplo) ou sons (músicas, por exemplo).
Ficou claro? Não? Pois é, também acho difícil de entender já que não se trata de nada com o qual eu tenha convivido nesses anos todos. A inteligência artificial refere-se à noção de que computadores podem aprender e tomar decisões de modo similar ao dos humanos. No entanto, necessita de regras, que, automáticas, tornam o processo muito mais rápido. O processamento de linguagem natural nada mais é que o tradutor de "computês" para que um usuário leigo como nós possa interagir com o computador usando a nossa linguagem usual, também denominada natural (https://www.take.net/blog/tecnologia/nlp-processamento-linguagem-natural/). Além disso, para uma verdadeira inteligência é necessário que o computador utilize a informação recebida (aprenda) para aprimorar as suas respostas. O processo é, como podem depreender, crescente, daí o rótulo de inteligência.
Já os chatbots (apelido para programas de computador que conversam com o usuário fazendo-se parecer humanos) já são bem familiares para nós, respondendo aos nossos telefonemas às empresas (disque 1 para vendas, disque 2 para financeiro, etc.), respondendo aos nossos comandos (Alexa ou Siri) ou quando encomendamos comida. Já o ChatGPT é mais sofisticado, podendo gerar ou criar algo novo, que não existia antes. Assim, pode gerar textos, apresentações, cartas, ensaios. No entanto, por ser uma máquina (sem emoções ou valores éticos), pode, baseando-se na informação recebida anteriormente, gerar respostas que parecem coerentes e plausíveis, mas que, na verdade, são falsas e até sem sentido. Por isso, a interação homem-máquina permanece de suma importância, pois o usuário pode então fazer a curadoria do texto, eliminando as incorreções e melhorando a qualidade do texto produzido. Mas atenção! Ele não funciona como o Google, isto é, ele não busca informações na internet, ao menos nessa versão gratuita inicial. Isso significa que, quanto mais usarmos esse programa, melhor ele poderá responder no futuro. E, dependendo com o que for alimentado, poderá criar produtos para usos escusos e mal-intencionados.
Entre tantas outras, matéria no New York Times, de janeiro de 2023, informa que a primeira versão oficial do programa foi lançada em novembro de 2022 e que, portanto, ele é ainda muito novo, mas que milhões de americanos já o experimentaram. De fato, ao tentar entrar na página da empresa e se inscrever para usar o programa a resposta dada a mim foi, no momento não podemos atendê-lo. Aguarde por email que iremos atendê-lo assim que possível. Parece familiar? Pois é, nunca recebi o tal aviso. Resolvi tentar de novo e, sucesso! Confesso: fiquei fascinada com a velocidade e a qualidade das respostas que recebi. Perguntei a ele de onde ele tirou as informações e ele me respondeu ter sido treinado numa grande variedade de fontes de texto na internet e outros formatos de informação tais como livros, artigos científicos e de outras fontes incluindo informação de fontes fidedignas tais como revistas médicas, organizações governamentais e instituições de ensino superior. Ou seja, não faz buscas em tempo real como o Google, mas tem sim acesso a toda a informação que costumamos, no dia- a dia, acessar. E mais, se você entrar de novo, ele lembra de você e mantém o histórico de tudo que você fez. Teoricamente você pode requisitar especificamente a ele para apagar a informação gerada. Não fiz o teste.
2. O que dizem os editores sobre o uso do programa para escrever ou aperfeiçoar textos científicos? Dada a qualidade dos textos gerados passa a ser uma real possibilidade que indivíduos usem o instrumento para gerar artigos, revisões, ensaios e editoriais para submetê-los às revistas científicas. Em resposta a essa questão o WAME (Chatbots, ChatGPT, and Scholarly Manuscripts, https://wame.org/page3.php?id=106 3/10) definiu novas diretrizes. As " Recommendations on ChatGPT and Chatbots in Relation to Scholarly Publications" informam que:
Chatbots não podem ser autores,
Os autores devem informar quando e de que formas ocorreu o uso de chatbots,
Os autores são responsáveis pelo trabalho desenvolvido pelo chatbot no seu artigo, incluindo a precisão da informação e a ausência de plágio, devendo atribuir corretamente a parte devida ao chatbot.
Os editores precisam de ferramentas adequadas para detecção de texto gerado ou modificado por inteligência artificial, que precisam estar disponíveis independentemente da possibilidade de serem pagas.
E por que isso? Porque estamos falando de um programa e da mesma forma que a Microsoft não é responsável pelo conteúdo de textos gerados em Word, a empresa OpenAI também não pode ser responsabilizada pelo uso indevido de seu programa. A responsabilidade final, de acordo com as normas ICMJE, é sempre dos autores.
3. Por que a comunidade científica e as editoras estão preocupadas com essa ferramenta? Há diversos textos muito bem escritos que discutem as várias facetas envolvendo o uso do ChatGPT pelos pesquisadores. Cito aqui alguns.
Stokel-Walker C & Van Noorden R. What ChatGPT and generative AI mean for science (Nature 614, 214-216 (2023). doi: https://doi.org/10.1038/d41586-023-00340-6
Flanagin A. Editorial. Nonhuman “Authors” and Implications for the Integrity of Scientific Publication and Medical Knowledge (JAMA, January 31, 2023. doi:10.1001/jama.2023.1344)
Mollick E. ChatGPT Is a Tipping Point for AI (Harvard Business Review https://hbr.org/2022/12/chatgpt-is-a-tipping-point-for-ai)
Mas eu li também artigos no New York Times, no Guardian, no Globo, no Estado de São Paulo, no Retraction Watch, no Medscape, no Google, no THE (Times Higher Education), STM (Scientific, Technical and Medical Publishers), The Conversation, Scholarly Kitchen, Moressier Newsletter, The Publication Plan, um verdadeiro dilúvio de opiniões, impressões e análises, para tentar vislumbrar um pouco o nosso futuro com uma inteligência artificial que parece realmente inteligente! E mais, já há artigos produzidos usando o programa. Um bom exemplo é uma revisão escrita por Blanco-Gonzalez et al. The Role of AI in Drug Discovery: Challenges, Opportunities, and Strategies, disponível em arXiv:2212.08104, onde os autores ressaltam a importância da curadoria humana para garantir que não foi gerado um texto falso ou simplesmente fantasioso.
Escolhi aqui dar foco apenas nas implicações para a integridade e ética, que são muitas. Renata Cafardo escreve uma coluna excelente no O Estado de São Paulo, em 17 de fevereiro, onde destaca que "educação é, mais do que nunca, reflexão", o aprimoramento no raciocinar, no avaliar, no criticar, no debater, no decidir e, sem dúvida, muito importante, no separar o joio (desonestidade) do trigo (honestidade). Urge o foco no que ela chama de educação midiática (digital). Isso em nível de educação de primeiro e segundo grau nas escolas. E nas universidades? Num ambiente de geração de conhecimento novo as questões de integridade e honestidade se tornam ainda mais prementes. E assim, nos vemos de volta às questões de integridade, honestidade e ética, pois é a má-intenção que irá criar um universo paralelo de informações falsas, ciência fraudada, e mais.
Muito bom! Parabéns pelo texto.