본문 바로가기
카테고리 없음

정교하게 설계된 알고리즘에 의해 선별된 정보

by redstar9 2025. 8. 6.

우리는 매일 스마트폰 화면 속에서 엄청난 양의 정보를 소비합니다.

그러나 그 정보들은 우연히 선택된 것이 아니라 정교하게 설계된 알고리즘에 의해 선별된 결과입니다.

이 알고리즘은 사용자의 취향과 관심사에 맞춰 콘텐츠를 추천해주는 역할을 하면서도

동시에 특정 정보들을 자연스럽게 보이지 않도록 만들기도 합니다. 그렇게 우리는 모르는 사이에 중요한 사실들을 놓치게 됩니다.

과연 이 정보의 비가시성은 누구에 의해 결정되는 것일까요. 

정교하게 설계된 알고리즘에 의해 선별된 정보
정교하게 설계된 알고리즘에 의해 선별된 정보

1. 알고리즘은 어떻게 정보를 감춘다는 것인가

알고리즘은 단순히 인기 있는 콘텐츠나 많이 본 게시물을 보여주는 수준을 넘어서 사용자의 행동 패턴을 학습합니다.

이 학습은 좋아요 클릭 시청 시간 댓글 작성 여부 등 다양한 요소를 기반으로 이루어지며

사용자에게 적합하다고 판단되는 정보만을 점점 더 자주 보여주는 방식으로 작동합니다.

문제는 이 과정에서 사용자가 의도적으로 접하고 싶지 않거나 불편하다고 느낄 수 있는 정보들이 점차 사라진다는 점입니다.

예를 들어 사회적 이슈나 환경 문제 정치적 논쟁과 같은 주제들은

대중적인 관심도가 높지 않거나 논란의 여지가 있는 경우 알고리즘에서 우선순위가 밀리게 됩니다.

이는 사용자 경험을 부드럽게 만들기 위한 시스템적인 선택이지만 동시에 정보의 균형을 무너뜨리는 결정이기도 합니다.

특히 사용자가 관심을 보이지 않았다는 이유로 해당 주제가 반복적으로 제외된다면

결국 우리는 자신도 모르게 점점 편협한 정보 환경에 놓이게 됩니다.

의도한 것이 아니더라도 이는 알고리즘 설계자와 플랫폼의 철학이 반영된 결과이며

결국 사용자에게는 감춰진 정보로 인식될 수밖에 없습니다.

환경 파괴에 대한 콘텐츠가 대표적입니다. 다큐멘터리 형식의 긴 영상이나 복잡한 데이터 분석을 요구하는 게시물은

일반적으로 클릭률이나 시청 유지율이 낮기 때문에 알고리즘에서 후순위로 밀리는 경향이 있습니다.

이러한 콘텐츠는 특정 기업의 생산 공정에서 발생하는 문제나 기후 변화에 대한 경고를 담고 있을 수 있음에도 불구하고

자극적이지 않거나 당장 흥미를 끌지 못한다는 이유로 사용자에게 도달하지 못하게 됩니다.

또 다른 예로는 정치적 편향이나 사회적 불평등을 다룬 콘텐츠들이 있습니다.

한 사용자가 이전에 유사한 주제를 불편하게 여기거나 짧은 시간만 시청한 이력이 있다면

알고리즘은 해당 콘텐츠를 피드에서 제거하거나 유사한 주제를 덜 추천하게 됩니다.

예컨대 한 뉴스 플랫폼에서 소수자 인권에 관한 콘텐츠가 평소보다 낮은 반응률을 기록했다면

그 주제는 알고리즘에 의해 덜 보이게 되고 결과적으로 사용자들은 해당 이슈에 대한 노출 기회를 점점 잃게 됩니다.

이처럼 사용자의 데이터에 기반해 정보가 선별되는 방식은 결국 보이지 않는 검열처럼 작동할 수 있습니다.

더 큰 문제는 이러한 결정이 알고리즘만의 판단이 아니라 그것을 설계한 사람들의 기준과 의도에 따라 작동한다는 점입니다.

과연 이 불편한 정보를 판단하고 배제하는 기준은 누가 만들고 있는 것일까요. 그리고 그 결정은 진정 사용자 중심적인 판단일까요. 

2. 무엇이 불편한 정보인가를 결정하는 사람들

알고리즘은 인간이 설계한 도구입니다.

따라서 무엇이 중요한 정보이고 무엇이 그렇지 않은지를 결정하는 과정에는 인간의 판단이 개입될 수밖에 없습니다.

플랫폼 기업은 사용자 경험을 최우선으로 고려하면서도 자사의 이미지 광고 수익 정책 방향 등을 고려해

알고리즘의 작동 방식을 조정합니다. 그 결과 이용자에게 불편할 수 있는 정보는 우선적으로 배제되거나 우회되는 경향을 보입니다.

이러한 판단은 때때로 정당화되기도 합니다. 혐오 표현이나 가짜 뉴스 폭력적인 이미지와 같은 콘텐츠는

사용자 보호라는 명분 하에 제재의 대상이 되며 자연스럽게 피드에서 제외됩니다.

하지만 문제가 되는 것은 이 같은 배제 기준이 투명하게 공개되지 않는다는 점입니다.

어느 시점에서 어떤 기준에 따라 어떤 정보가 제외되는지 사용자 입장에서는 알 수 없습니다.

결국 우리는 플랫폼이 설정한 틀 안에서만 정보를 소비하게 되고 이 틀은 사용자 중심이 아닌 플랫폼 중심의 기준으로 작동하게 됩니다.

일례로 환경 파괴나 노동 착취와 같은 기업의 어두운 이면을 다룬 콘텐츠는

일부 플랫폼에서 광고주와의 관계 혹은 브랜드 이미지와의 충돌 우려로 노출이 제한된 바 있습니다.

그 결과 사용자는 해당 정보를 접하지 못하거나 너무 늦게 알게 되기도 합니다.

이는 정보 접근의 자유가 점점 더 기술에 의해 제한받고 있다는 사실을 방증합니다.

실제로 몇몇 플랫폼은 알고리즘 설계 과정에서 특정 키워드나 주제에 대한 자동 필터링 규칙을 설정하고 있습니다.

이 규칙들은 사용자의 불쾌감을 줄이기 위한 목적이라 설명되지만

동시에 논란의 여지가 있거나 사회적으로 예민한 주제를 효과적으로 차단하는 역할도 합니다.

예를 들어 인종차별이나 성소수자 혐오에 대한 비판적 콘텐츠가 플랫폼 내에서 자동 검열되거나 아예 노출이 제한된 사례들이 있습니다.

문제는 그 콘텐츠들이 혐오를 조장하는 것이 아니라 오히려 문제의식을 제기하고 변화를 촉구하는 목소리였다는 점입니다.

또 다른 사례로는 노동 착취나 대기업의 비윤리적 행태를 고발하는 콘텐츠들이 있습니다.

이러한 콘텐츠들은 때때로 광고주와의 이해관계 혹은 플랫폼의 이미지 유지 전략과 충돌하게 됩니다.

그 결과 콘텐츠는 알고리즘에 의해 비가시화되거나 애초에 추천 자체에서 제외되곤 합니다.

이러한 조치들이 명시적으로 사용자에게 설명되지 않기 때문에

이용자들은 자신에게 제공되지 않은 정보가 존재한다는 사실조차 인지하지 못합니다.

이처럼 누군가의 기준으로 불편하다고 판단된 정보가 걸러지는 구조는 사용자 개개인의 비판적 사고 기회를 빼앗는 결과를 초래합니다.

플랫폼 운영자와 알고리즘 개발자의 주관이 정보의 가시성과 투명성을 결정짓게 되는 것입니다.

 

3. 정보의 비가시성이 만드는 무지의 구조

눈앞에 보이지 않는 정보는 존재하지 않는 것처럼 느껴집니다.

알고리즘은 우리에게 무언가를 강제로 숨기지 않지만 보여주지 않음으로써 자연스럽게 관심에서 멀어지게 만듭니다.

그리고 이 과정은 점차 일상화되어 사용자 스스로도 무엇이 빠졌는지조차 인식하지 못하게 됩니다.

이러한 무지는 단순히 개인의 정보 부족을 의미하지 않습니다.

사회 전체적으로도 특정 이슈에 대한 관심과 논의가 줄어들게 되며 궁극적으로는 공론장의 약화로 이어질 수 있습니다.

개인화 알고리즘은 사용자의 경험을 부드럽게 만들어주는 장치일 수 있지만

동시에 사회적 감수성과 윤리적 판단력을 약화시키는 요인이 될 수도 있습니다.

현재의 알고리즘은 클릭률과 체류 시간을 기준으로 최적화되어 있습니다.

이러한 구조는 플랫폼의 수익과 직결되기 때문에 쉽게 바뀌기 어렵습니다.

하지만 사용자와 사회의 요구가 변화함에 따라 알고리즘의 설계 방향에도 새로운 기준이 필요하다는 목소리가 커지고 있습니다.

정보의 다양성은 단순히 콘텐츠의 양이 많다는 것을 의미하지 않습니다.

다양한 관점과 주제를 균형 있게 노출하는 알고리즘은 사회적 책임과 연결되어야 합니다.

이를 위해서는 알고리즘의 작동 원리를 투명하게 공개하고 사용자에게 콘텐츠 조정 권한을 제공하는 등

기술의 방향성을 재설정할 필요가 있습니다.

무조건적으로 개인화된 콘텐츠가 아닌 불편할 수 있는 정보까지도 일정 수준 이상은 노출될 수 있도록 설계되어야 한다는 점에서

알고리즘 설계는 윤리의 문제로까지 확장되고 있습니다.

알고리즘은 편리함을 약속하지만 때로는 중요한 정보를 우리 눈앞에서 사라지게 만듭니다.

이로 인해 우리는 점점 더 좁은 정보 세계에 머물게 되고 결국 중요한 사실에 무지해질 위험을 마주하게 됩니다.

기술이 정보를 선별하는 시대에 진짜 중요한 것은 무엇을 보고 무엇을 보지 못하고 있는지를 자각하는 일입니다.

알고리즘 너머의 세계를 다시 질문할 때 우리는 비로소 진짜 정보 소비자가 될 수 있습니다.