본문 바로가기
[IT정보] 쉽게 알아보는 IT

페이스북이 AI 인공지능을 사용하는 방법!

by 포써니 2020. 11. 17.
728x90

안녕하세요. 오늘은 날씨가 많이 따듯했죠? 

아침과 일교차가 많이 났던 날이었습니다. 일교차가 크면 감기에 걸리기 쉬우니 따듯한 겉옷을 항상 가지고 다녀야겠습니다.

 

오늘은 페이스북에서 AI인공지능을 사용하는 방법을 공유드리겠습니다. 

 


페이스북은 인공지능이 플랫폼에 서 더 많은 검열 업무를 처리하기를 원한다는 점을 항상 분명히 했습니다. 오늘, 이목 표를 향한 최신 단계 : 기계 학습을 중재 대기열에 배치하는 것입니다. 

 

페이스북에서 중재가 작동하는 방식은 다음과 같습니다. 회사의 규칙을 위반하는 것으로 생각되는 게시물 (스팸에서 증오심 표현 및 '폭력을 미화'하는 콘텐츠 포함)은 사용자 또는 머신러닝 필터에 의해 신고됩니다. 일부 매우 명확한 사례는 자동으로 처리되며 (예 : 게시물 제거 또는 계정 차단과 같은 응답이 포함될 수 있으) 나머지는 중재자가 검토하기 위해 대기열로 이동합니다. 

 

 

 

페이스북은 전 세계적으로 약 15,000명의 검열원을 고용하고 있으며, 과거에 이러한 직원들에게 충분한 지원을 제공하지 않고 트라우마로 이어질 수 있는 조건에서 고용한 것에 대해 비판을 받았습니다. 그들의 임무는 플래그가 지정된 게시물을 분류하고 회사의 다양한 정책을 위반하는지 여부를 결정하는 것입니다. 

 

 

과거에는 검열원이 게시물을 보고된 순서대로 처리하면서 시간순으로 게시물을 검토했습니다. 이제 페이스북은 가장 중요한 게시물이 먼저 표시되도록 하고 싶어 하며 기계학습을 사용하여 도움을 주고 있습니다. 앞으로 다양한 머신 러닝 알고리즘의 조합을 사용하여 이 대기열을 정렬하고 바이러스 성, 심각도, 규칙을 위반할 가능성의 세 가지 기준에 따라 게시물의 우선순위를 정할 것입니다. 

 

이러한 기준이 정확히 어떻게 가중치를 받는지는 명확하지 않지만 페이스북은 가장 피해가 큰 게시물을 먼저 처리하는 것이 목표라고 말합니다. 따라서 게시물이 더 많이 바이러스에 노출될수록 (더 많이 공유되고 표시될 수 록) 더 빨리 처리됩니다. 게시물의 심각도도 마찬가지입니다. 페이스북은 실제 피해를 수반하는 게시물을 가장 중요한 게시물로 분류한다고 말합니다. 이는 테러, 아동착취 또는 자해와 관련된 콘텐츠를 의미할 수 있습니다. 한편 스팸과 같은 게시물은 성가시지만 충격적이지 않은 게시물은 검토에서 가장 중요하지 않은 것으로 평가됩니다. 

 

페이스북 커뮤니티 무결성팀의 제품 관리자인 Ryan Barnes는 언론 브리핑에서 "모든 콘텐츠 위반은 여전히 상당한 인적 검토를 받게 되지만 우리는 이 시스템을 사용하여 해당 프로세스의 우선순위를 더 잘 정할 것"이라고 말했습니다.

 

 

 

페이스북은 AI의 머신러닝이 과거에 포스트를 분석하는 방법에 대한 몇 가지 세부사항을 공유했습니다. 이러한 시스템에는 '전체 포스트 무결성 임베딩'을 의미하는 "WPIE"라는 모델이 포함되어 있으며 페이스북이 말하는 "전체적"접근 방식을 사용하여 콘텐츠를 평가합니다. 

 

즉, 알고리즘은 이미지, 캡션, 포스터 등이 함께 표시하는 내용을 파악하기 위해 특정 게시물의 다양한 요소를 공동으로 판단합니다. 누군가가 구운 제품으로 보이는 사진과 함께 "특별한 간식"의 "풀 배치"를 판매한다고 말한다면 그들은 Rice Krispies 사각형 또는 식용을 말하는 것일까요? 캡션에 있는 특정 단어를 사용하면 어떤 식 으로든 판단에 도움이 될 수 있습니다. 

 

페이스북의 플랫폼 조정을 위해 AI를 사용하는 것은 과거에 조사를 위해 들어왔으며, 비평가들은 인공지능이 많은 온라인 커뮤니케이션의 맥락을 판단할 수 있는 인간의 능력이 부족하다고 지적했습니다. 특히 잘못된 정보, 괴롭힘과 같은 주제의 경우 컴퓨터가 무엇을 보고 있는지 파악하는 것이 거의 불가능할 수 있습니다. 

 

페이스북의 상호작용 무결성 팀의 소프트웨어 엔지니어인 Chris Palow는 AI에 한계가 있다는데 동의했지만 이 기술이 원치 않는 콘텐츠를 제거하는데 여전히 역할을 잘하고 있다고 기자들에게 말했습니다. Palow는 "이 시스템은 AI와 인간 리뷰어를 결합하여 총실수를 줄이는 것입니다. AI는 절대 완벽하지 않을 것입니다."

 

AI의 실수!

회사의 머신러닝 시스템이 잘못 분류한 게시물의 비율을 물었을 때 Palow는 직접적인 답변을 하지 않았지만 페이스북은 사람의 검열원만큼 정확할 때만 사람의 감독 없이 자동화된 시스템이 작동하도록 허용한다고 언급했습니다. "자동화된 작업의 기준은 매우 높습니다."라고 그는 말했습니다. 그럼에도 불구하고 페이스북은 검열 믹스에 AI를 꾸준히 추가하고 있습니다. 

 


페이스북에서 어떤 방식으로 AI를 사용하는지 알아봤습니다.  페이스북에서는 사용자들이 올린 피드, 게시글 들을 검열하는 곳에 AI 검열과 사람들이 함께 검열하는 방식으로 검열을 하고 있는데요. 아직은 AI가 완벽하지 못해 사람의 검열이 필요한 것 같습니다. 

 

오늘도 긴 글 읽어주셔서 감사합니다.

모두 좋은 하루 보내세요.

 

반응형

댓글