Mostrando postagens com marcador Sam Altman. Mostrar todas as postagens
Mostrando postagens com marcador Sam Altman. Mostrar todas as postagens

CEO do ChatGPT admite que IA pode ‘dar muito errado’ se desenvolvimento sair de controle

Nenhum comentário

16 de mai. de 2023

Sam Altman foi ouvido pelo Congresso americano nesta terça-feira, 16, e reafirmou os perigos da IA em relação à desinformação

Alsorsa.News |
Foto: Patrick Semansky/AP Photo

THE WASHINGTON POST - O CEO da OpenAI, Sam Altman, apresentou um relato sobre como a inteligência artificial (AI) poderia “causar danos significativos ao mundo” durante seu primeiro testemunho no Congresso americano. Na sessão, realizada nesta terça, 16, o empresário se mostrou disposto a trabalhar com legisladores apreensivos para enfrentar os riscos apresentados pelo ChatGPT e outras ferramentas de IA, mas reconheceu os riscos da tecnologia.


Altman defendeu uma série de regulamentações, incluindo uma nova agência governamental. O órgão seria encarregado de criar padrões governamentais para a área, para lidar com as preocupações de que as IA generativas possam distorcer a realidade e criar riscos de segurança sem precedentes. O CEO elencou uma lista de comportamentos “arriscados” apresentados pela tecnologia como a ChatGPT, incluindo a disseminação de “desinformação interativa individual” e manipulação emocional. Em um momento, ele reconheceu que a IA poderia ser usada para direcionar ataques de drones.


“Se essa tecnologia der errado, pode dar muito errado”, disse Altman.


No entanto, em quase três horas de discussão sobre os danos potencialmente catastróficos da IA, Altman afirmou que sua empresa continuará a lançar a tecnologia, apesar dos prováveis perigos. Ele argumentou que a “implementação repetitiva” de modelos de IA da OpenAI dá tempo para as instituições entenderem os danos potenciais — um movimento estratégico que coloca a tecnologia “relativamente fraca” e “profundamente imperfeita” no mundo para entender os riscos de segurança associados.


Por semanas, Altman tem feito uma turnê global de boa vontade, encontrando-se privadamente com formuladores de políticas — incluindo a Casa Branca de Joe Biden e membros do Congresso — para abordar suas crescentes preocupações com o rápido lançamento do ChatGPT e outras tecnologias. A audiência desta terça marcou a primeira oportunidade para o público em geral ouvir sua mensagem, em um momento em que Washington está cada vez mais lutando para regular a tecnologia que já está revolucionando empregos, fortalecendo golpes e disseminando discursos falsos.


Em nítido contraste com audiências contenciosas com outros CEOs de tecnologia, incluindo Shou Zi Chew, do TikTok, e Mark Zuckerberg, da Meta, legisladores de ambos os partidos deram a Altman uma recepção relativamente calorosa. Eles pareciam estar em modo de escuta, expressando uma ampla disposição para ouvir propostas regulatórias de Altman e das duas outras testemunhas na audiência, a executiva da IBM Christina Montgomery e o professor emérito da Universidade de Nova York, Gary Marcus.


Membros do subcomitê do Senado para a Justiça expressaram profundos temores sobre a rápida evolução da inteligência artificial, sugerindo repetidamente que os avanços recentes poderiam ser mais transformadores do que o advento da internet — ou tão arriscados quanto a bomba atômica.


“Esta é a sua chance, pessoal, de nos dizer como acertar isso”, disse o senador John Kennedy (Partido Republicano) às testemunhas. “Por favor, use-a.”

No Congresso, Altman defendeu uma série de regulamentações, incluindo uma nova agência governamental  Foto: Patrick Semansky/AP Photo

Tentativas

Legisladores de ambos os partidos expressaram abertura à ideia de criar uma nova agência governamental encarregada de regular a inteligência artificial, embora tentativas passadas de criar um órgão específico com supervisão do Vale do Silício tenham fracassado no Congresso em meio a divisões partidárias sobre como regular a indústria.


O senador Richard Blumenthal (Partido Democrata), que preside o subcomitê que sediou a audiência, disse que o depoimento de Altman estava bem distante de outras participações de CEOs do Vale do Silício, nas quais os legisladores criticaram ao longo dos anos por às vezes recusarem endossar propostas legislativas específicas.


“Sam Altman é diferente comparado a outros CEOs, e não apenas nas palavras e na retórica, mas em ações concretas e na disposição de participar e se comprometer com ações específicas”, disse Blumenthal aos repórteres após a audiência.


Acolhida

A recepção calorosa a Altman sinaliza o sucesso de sua recente ofensiva de charme, que incluiu um jantar com legisladores na segunda-feira, 15, sobre a regulamentação da inteligência artificial e uma reunião privada após a audiência com o presidente da Câmara, Kevin McCarthy (Partido Republicano.), o líder da minoria da Câmara, Hakeem Jeffries (Partido Democrata) e membros do Caucus de Inteligência Artificial do Congresso.


As críticas mais severas a Altman durante a audiência não vieram dos legisladores, mas de outra testemunha sentada ao lado dele. Gary Marcus, professor emérito da Universidade de Nova York, alertou os legisladores de que eles estavam enfrentando uma “tempestade perfeita de irresponsabilidade corporativa, implantação generalizada, falta de regulamentação e inerente falta de confiabilidade”.


Marcus criticou especificamente a OpenAI, citando sua declaração de missão original para avançar a IA para “beneficiar toda a humanidade” sem restrições de pressões financeiras. Segundo Marcus, a empresa é, agora, “subserviente” ao seu investidor Microsoft, e que seu rápido lançamento de produtos está pressionando a empresa-mãe do Google, Alphabet, a lançar produtos rapidamente também.


“A humanidade foi relegada a segundo plano”, disse Marcus.


Além de criar uma nova agência reguladora, Altman propôs a criação de um novo conjunto de padrões de segurança para modelos de IA, testando se eles poderiam se desviar e começar a agir por conta própria. Ele também sugeriu que especialistas independentes poderiam realizar auditorias independentes, testando o desempenho dos modelos em várias métricas.


No entanto, Altman contornou outras sugestões, como requisitos para transparência nos dados de treinamento que os modelos de IA usam. A OpenAI tem sido sigilosa sobre os dados que usa para treinar seus modelos, enquanto alguns rivais estão construindo modelos de código aberto que permitem aos pesquisadores examinar os dados de treinamento.


Altman também desviou de um pedido da senadora Marsha Blackburn (Partido Republicano) para se comprometer a não treinar os modelos da OpenAI em obras protegidas por direitos autorais de artistas, ou a usar suas vozes ou semelhanças sem primeiro obter seu consentimento. E quando o senador Cory Booker (Partido Democrata) perguntou se a OpenAI algum dia colocaria anúncios em seus chatbots, Altman respondeu: “Eu não diria nunca”.


*As informações são do Estadão 

OpenAI muda treinamento do ChatGPT depois de críticas, entenda

Nenhum comentário

6 de mai. de 2023

Empresa deu guinada nos seus planos e decidiu que não treinará chatbot com dados de clientes, segundo CEO Sam Altman

Alsorsa.News |
(Imagem: Fabio Principe/Shutterstock)


A OpenAI não tem treinado seus LLM (Modelos Grandes de Linguagem) de IA (inteligência artificial) – por exemplo, o GPT – com dados de clientes pagantes. Pelo menos, por ora. É o que disse Sam Altman, CEO da empresa dona do ChatGPT, à CNBC nesta sexta-feira (05).


“Clientes claramente não querem que treinemos [os LLMs] com seus dados, então mudamos nossos planos. Não faremos isso”, disse o executivo. Termos de serviço da OpenAI foram atualizados discretamente em 1º de março, mostram registros do Internet Archive.


“Não treinamos nenhum dado de API, não o fazemos há algum tempo”, acrescentou Altman. APIs, ou interfaces de programação de aplicativos, são estruturas que permitem que clientes se conectem diretamente ao software da OpenAI. Clientes empresariais da OpenAI – por exemplo, Microsoft, Salesforce (dona do Slack) e Snapchat – são mais propensos a aproveitar esse tipo de recurso.


Mudança de postura da OpenAI

CEO da OpenAI, Sam Altman, disse que mudança veio após críticas dos usuários (Imagem: Wikimedia Commons)

Nova privacidade e proteção de dados da OpenAI se estende apenas aos clientes que usam serviços de API da empresa. “Podemos usar o conteúdo de serviços que não sejam nossa API”, observa os Termos de uso atualizados da empresa.


Entra nisso, por exemplo, texto que os funcionários inserem no ChatGPT. Inclusive, a Amazon – que tem trabalhado no seu próprio chatbot – alertou seus funcionários para não compartilharem informações confidenciais com o chatbot da OpenAI, para evitar vazamentos. A Samsung fez o mesmo – e pelos mesmos motivos.


*Olhar Digital 

Não Perca!
© Todos Os Direitos Reservados
Por JPCN.Blog