REUTERS에서 전한 뉴스이다.

 

 

ChatGPT를 개발한 스타트업 OpenAI의 CEO는 선거의 무결성을 방해하는 인공지능의 사용은 심각한 우려 분야이며 규제가 필요하다고 말했다.

CEO 샘 알트만(Sam Altman)은 선거와 AI에 대해 신경이 쓰인다고 말하며 규칙과 지침이 필요하다고 덧붙였다.

지난 몇 달 동안 크고 작은 기업들은 다재다능한 AI를 시장에 출시하기 위해 막대한 데이터와 수십억 달러를 쏟아 부으며 경쟁하고 있다. 일부 비평가들은 이 기술이 편견과 잘못된 정보 등 사회적 해악을 악화시킬 수 있다고 우려하고, 일부는 AI가 인류 자체를 멸망시킬 수 있다고 경고한다.

AI를 규제하는 최선의 방법에 대해 의문을 제기하는 많은 의원 중 한 명인 코리 부커에 따르면, 이 괴물을 병 속에 가둬둘 방법은 없으며 전 세계적으로 볼 때 AI는 폭발적으로 확산되고 있다고 언급했다.

마지 히로노 상원의원은 2024년 선거가 다가옴에 따라 오보의 위험성을 지적했다. 예를 들어, 선거와 관련해 트럼프 전 대통령이 NYPD에 체포되는 사진을 보았는데, 이것이 유행했다며 알트만에게 가짜 이미지를 유해한 것으로 간주할 수 있는지 물었다.

이에 대해 알트만은 제작자는 이미지가 사실이 아닌 생성된 것임을 분명히 해야 한다고 답했다.

의회에서 처음으로 발언한 알트만은 일반적으로 미국 AI 모델 개발에 대한 라이선스 및 테스트 요건을 검토해야 한다고 제안했다.

또한, 기업들은 자신의 데이터가 AI 훈련에 사용되기를 원하지 않는다고 말할 권리가 있어야 하며, 이는 의회에서 논의되고 있는 아이디어 중 하나라고 말했다. 그러나 알트만은 공공 웹상의 자료도 공평하게 다뤄질 것이라고 말했다.

백악관은 알트먼을 포함한 기술 업계의 최고 CEO들을 불러 모아 AI를 다루고 있다. 미국 국회의원들도 마찬가지로 악용을 제한하면서 이 기술의 장점과 국가 안보를 촉진하기 위한 조치를 요구하고 있지만 합의는 아직 확실하지 않다.

OpenAI의 직원들은 최근 AI 관련 미국 라이선스 기관 설립을 제안했으며, 그 이름은 ‘Office for AI Safety and Infrastructure Security'(OASIS)가 될 수 있다고 한다.

OpenAI는 마이크로소프트(MSFT.O)의 지원을 받고 있다. 알트만은 또한 AI에 대한 글로벌 협력과 안전 준수를 위한 인센티브를 촉구하고 있다.

International Business Machines Corp (IBM.N)의 최고 프라이버시 및 신뢰 책임자 Christina Montgomery는 의회에 가장 큰 사회적 피해를 초래할 수 있는 분야에 규제를 집중할 것을 촉구했다.

 

 

 


 

 

 

기사원문: REUTERS (2023.05.17) <OpenAI chief concerned about AI being used to compromise elections>

 

 

The CEO of OpenAI, the startup behind ChatGPT, told a Senate panel on Tuesday the use of artificial intelligence to interfere with election integrity is a “significant area of concern”, adding that it needs regulation.


“I am nervous about it,” CEO Sam Altman said about elections and AI, adding rules and guidelines are needed.


For months, companies large and small have raced to bring increasingly versatile AI to market, throwing endless data and billions of dollars at the challenge. Some critics fear the technology will exacerbate societal harms, among them prejudice and misinformation, while others warn AI could end humanity itself.


“There’s no way to put this genie in the bottle. Globally, this is exploding,” said Senator Cory Booker, one of many lawmakers with questions about how best to regulate AI.


Senator Mazie Hirono noted the danger of misinformation as the 2024 election nears. “In the election context, for example, I saw a picture of former President Trump being arrested by NYPD and that went viral,” she said, pressing Altman on whether he would consider the faked image harmful.


Altman responded that creators should make clear when an image is generated rather than factual.


Speaking before Congress for the first time, Altman suggested that, in general, the U.S. should consider licensing and testing requirements for development of AI models.


Altman, asked to opine on which AI should be subject to licensing, said a model that can persuade or manipulate a person’s beliefs would be an example of a “great threshold.”
He also said companies should have the right to say they do not want their data used for AI training, which is one idea being discussed on Capitol Hill. Altman said, however, that material on the public web would be fair game.


Altman also said he “wouldn’t say never” to the idea of advertising but preferred a subscription-based model.


The White House has convened top technology CEOs including Altman to address AI. U.S. lawmakers likewise are seeking action to further the technology’s benefits and national security while limiting its misuse. Consensus is far from certain.


An OpenAI staffer recently proposed the creation of a U.S. licensing agency for AI, which could be called the Office for AI Safety and Infrastructure Security, or OASIS, Reuters has reported.
OpenAI is backed by Microsoft Corp (MSFT.O). Altman is also calling for global cooperation on AI and incentives for safety compliance.


Christina Montgomery, International Business Machines Corp (IBM.N) chief privacy and trust officer, urged Congress to focus regulation on areas with the potential to do the greatest societal harm.