Perplexity는 인공지능(AI) 기반 검색 엔진을 개발하는 미국의 기술 스타트업입니다. 단순히 정보를 찾는 것을 넘어, 검색 경험 자체를 혁신하려는 목표로 설립된 이 회사는 짧은 시간 안에 전 세계의 주목을 받고 있습니다. 하지만 이 놀라운 이야기는 두 젊은 연구자의 우연한 만남에서 시작됩니다.


UC 버클리에서의 시작

Perplexity의 공동 창업자, 아라빈드 스리니바스데니스 야라츠는 박사 과정을 밟으며 서로의 논문을 통해 인연을 맺었습니다. 이 두 사람은 UC 버클리에서 만난 후, AI와 검색의 미래를 고민하기 시작했죠. 이후, 이들에게 조니 호라는 뛰어난 개발자가 합류하고, 데이터브릭스 공동 창업자인 앤디 콘빈스키가 투자와 운영 지원을 맡으면서 Perplexity는 본격적인 여정을 시작하게 됩니다. 이 모든 일이 2022년 8월의 일이었죠.

CEO인 스리니바스는 AI 연구의 최전선에서 활동한 OpenAI 출신으로, 인도계 미국인입니다. 그는 과거 구글에서 인턴으로 일하며 검색 엔진의 역사와 한계를 공부했습니다. 구글의 링크 기반 검색 방식에 대해 고민하던 그는, 더 나은 대안을 만들고자 하는 열망에서 Perplexity를 창업했습니다. 스리니바스는 기존 검색 엔진의 약점을 이렇게 지적합니다.

"사람들이 질문을 하면, 그 답을 찾기 위해 여러 링크를 클릭해야 하죠. 왜 답변 자체를 제공하면서 신뢰할 수 있는 출처를 함께 보여주는 검색 엔진은 없을까요?"
그의 이 아이디어는 Perplexity를 탄생시키는 원동력이 되었습니다.


서비스의 출범과 투자 유치

Perplexity는 2022년 12월 7일, 처음으로 AI 기반 검색 서비스를 세상에 공개했습니다. 출범 당시부터 단순히 텍스트 데이터를 보여주는 검색 엔진이 아닌, 사용자의 질문에 맞는 요약된 답변을 직접 제공하는 혁신적인 방식으로 주목을 받았습니다. 예를 들어, 복잡한 질문을 입력하면, Perplexity는 관련된 출처를 분석해 간결한 보고서 형태로 답변을 제시합니다. 마치 당신의 개인 연구원이 되어 주는 셈입니다.

이후, Perplexity는 투자자들의 뜨거운 관심을 받았습니다. 2024년 1월, 엔비디아와 제프 베이조스를 포함한 투자자로부터 7,360만 달러의 투자를 유치하며 기업 가치를 5억 달러 이상으로 인정받았습니다. 2024년 4월에는 소프트뱅크와 도이체 텔레콤과의 파트너십을 통해 기업 가치를 10억 4,000만 달러로 끌어올리며 유니콘 기업 반열에 올랐죠. 이후에도 소프트뱅크 비전 펀드의 추가 투자로 기업 가치는 30억 달러까지 치솟게 됩니다.


Perplexity의 차별점

Perplexity는 기존 검색 엔진과는 다릅니다. 사용자의 질문에 대한 답변을 제공할 뿐만 아니라, 관련된 추가 질문까지 추천하며 검색 경험을 확장합니다. 광고 수익 모델도 독특합니다. 광고를 단순히 배치하는 것이 아니라, 광고 질문을 답변과 자연스럽게 섞어 제공하며, 광고와 뉴스 출처를 연결해 수익을 분배하는 방식을 도입했습니다. 이런 모델은 스포티파이의 수익 분배 시스템에서 영감을 얻었으며, 다양한 콘텐츠 제공자들과의 협업을 통해 발전하고 있습니다. 포춘, 슈피겔, 텍사스 트리뷴 등 여러 언론사가 이미 Perplexity와 파트너십을 맺고 있다고 하니, 이들이 제시하는 새로운 광고 모델이 어떤 결과를 가져올지 주목됩니다.


논란과 과제

하지만 Perplexity도 논란에서 자유롭지는 않습니다. 2024년 6월, 와이어드는 Perplexity가 포브스를 비롯한 여러 매체의 콘텐츠를 무단으로 크롤링했다는 의혹을 제기했습니다. Perplexity가 검색 속도를 높이기 위해 RAG(Retrieval-Augmented Generation) 방식을 사용하는 과정에서, 일부 봇이 robots.txt 규정을 무시하고 데이터를 가져갔다는 주장입니다. 이 문제는 OpenAI를 비롯한 여러 AI 회사들이 직면한 법적 논란과 맞닿아 있습니다. 앞으로 Perplexity가 콘텐츠 제공사들과 어떤 합의점을 찾을지, 광고 모델이 이런 논란을 어떻게 극복할지는 중요한 과제가 될 것입니다.


글로벌 확장과 사용자 기반

Perplexity는 이미 글로벌 시장에서 빠르게 자리를 잡고 있습니다. 2024년 1분기 기준으로, Perplexity는 1,500만 명의 사용자를 확보했으며, 매달 2억 5,000만 건의 쿼리를 처리하고 있습니다. 특히, 일본의 소프트뱅크와의 파트너십 덕분에 일본 사용자들은 Perplexity Pro 구독권을 무료로 받을 수 있게 되었고, SKT의 AI 서비스 에이닷에서도 Perplexity 모델을 기반으로 한 대화형 검색 서비스를 제공하고 있습니다. 모바일 기업 Nothing은 Perplexity Pro 1년 구독권을 제공하며 소비자들에게 더 가까이 다가가고 있습니다.


Perplexity가 열어갈 새로운 검색의 시대

Perplexity는 단순한 검색 엔진을 넘어, 사람들이 정보를 탐색하고 활용하는 방식을 바꾸고 있습니다. 아라빈드 스리니바스 CEO는 이렇게 말합니다.
"이제 사람들은 더 이상 구글에서 링크를 뒤적이지 않을 겁니다. Perplexity가 필요한 답변을 바로 제공하니까요."
그의 말처럼 Perplexity는 빠르고 정확하며, 정보를 단순히 나열하는 것이 아니라 가공하여 전달하는 새로운 검색의 시대를 열고 있습니다. 하지만 이 과정에서 기술적 논란과 비용 문제, 그리고 콘텐츠 제공자와의 갈등이라는 도전 과제를 극복해야 합니다.

Perplexity는 지금도 진화하고 있습니다. AI 기반 검색이 앞으로 얼마나 더 우리의 삶을 바꿀지, 그 중심에 서 있는 Perplexity의 여정이 더욱 기대됩니다.

반응형
LIST
OpenAI o3의 발표를 듣는 샘 알트만 OpenAI 대표 (우측)
OpenAI에서 새롭게 개발한 추론형 멀티모달 모델인 o3는 2025년에 정식 출시될 예정입니다. 이 모델은 성능에 따라 o3와 좀 더 가볍게 사용할 수 있는 o3-mini로 나뉩니다. 재미있는 점은, 이 모델이 OpenAI의 이전 버전인 o1의 후속작인데, 이름이 o2가 아니라 o3가 된 이유가 따로 있다고 합니다. 영국의 이동통신 브랜드인 O2와 상표권 분쟁을 피하기 위해, 한 단계 건너뛴 이름을 붙였다고 하네요! 이런 비하인드 스토리가 모델 이름에 숨겨져 있다니 흥미롭지 않나요?
 
o3는 실무 코딩 실력을 평가하는 SWE-bench에서 71.7점을 기록하며 현재까지 발표된 모델 중 가장 뛰어난 성과를 보여줬습니다. 또한, 알고리즘 대회 플랫폼인 Codeforces에서는 무려 2727점을 받아 상위 **0.2%**에 해당하는 점수를 기록했습니다. 특히 SWE-bench의 문제 중 77.8%가 숙련된 개발자가 1시간 이내에 해결 가능한 수준이라고 평가되는 만큼, o3는 알고리즘 같은 특정 영역에서는 대부분의 개발자보다 뛰어난 능력을 보여줄 수 있습니다. 그러나 실무적인 개발에서는 여전히 한계가 있어, 현재로서는 사람을 완전히 대체하기에는 어려움이 있는 상황입니다. AI가 사람을 완전히 대신할 날이 오려면 아직 시간이 필요해 보이네요.
 
o3는 Competition Math 평가에서 96.7점을 기록하며 만점에 가까운 성과를 보여줬습니다. (발표영상의 가운데 앉으신 분이 o3 product manager인데, 본인은 이 시험에서 100점 맞았다고 살짝 자랑겸 안도). 이뿐만 아니라, 박사 수준의 과학 문제에서도 87.7점이라는 매우 높은 점수를 받았는데요. 이를 통해 복잡한 수학적 문제나 고급 과학 지식이 요구되는 상황에서도 o3가 상당히 뛰어난 능력을 발휘할 수 있다는 점이 입증되었습니다.
 

o3는 인간에게는 비교적 쉬운 문제지만 AI에게는 까다로운 것으로 알려진 ARC-AGI 평가에서 87.5점을 기록하며, 인간 전문가 수준인 85점을 넘어서 AGI(Artificial General Intelligence) 타이틀을 획득했습니다. 이 성과는 AI 연구에서 큰 진전으로 평가받아, 이를 넘어서는 후속 ARC 벤치마크가 나올 것으로 예상되고 있습니다.

하지만 이 놀라운 성과 뒤에는 비용 문제라는 논란이 따릅니다. ARC-AGI 평가에서 87.5점을 얻기 위해 한 문제당 약 3,440달러가 소요되었고, 전체 400문제를 해결하는 데에는 약 20억 원이라는 막대한 비용이 들었다고 밝혀졌습니다. 만약 문제당 비용을 20달러 수준으로 낮출 경우, 점수는 75.7점으로 떨어지게 됩니다. 이러한 점 때문에 현재의 o3 모델은 상용화까지 여전히 상당한 시간이 필요하다는 평가를 받고 있습니다. AI가 인간 수준의 지능을 구현하는 데 있어 성능뿐만 아니라 경제적 현실성도 해결해야 할 중요한 과제로 남아 있습니다. 어차피 초기 기술은 비싸지만, 유용하기만 하면 기술 비용은 급격하게 떨어지니, 지금 많이 든다고 해도 큰 걱정은 안해도 될 듯 합니다.

o3는 가장 쉬운 문제조차 국제수학올림피아드나 퍼트넘 경시대회 수준으로 알려진 Frontier Math에서 25.2점을 기록했습니다. 이는 매우 어려운 수학 문제를 다루는 초기 단계의 성과로 볼 수 있습니다. OpenAI의 개발자인 Will Depue는 2025년 말까지 Frontier Math에서 90점을 달성할 수 있는 모델을 개발할 것이라고 자신감을 내비쳤습니다. 이 발언은 OpenAI가 고차원적인 수학 문제 해결에서도 AI의 잠재력을 확장해 나가고 있음을 보여줍니다. 수학 같은 문제는 사용하는 기호, 논리 전개 등에서 한정적이기 때문에 AI가 더 잘하는 듯 합니다.
한편, o3는 o1-preview가 발표된 지 3개월 만에 공개되었으며, 준AGI 수준에 가까운 성능으로 많은 관심을 끌었습니다. 그러나 현재의 o3는 추론 비용이 상당히 비싸다는 문제가 있습니다. 이러한 비용 문제는 일반 사용자가 o3와 같은 수준의 모델을 저렴하게 활용하기까지 시간이 더 필요하다는 점을 시사합니다. 고성능 AI의 보편화를 위해서는 기술적인 발전과 함께 비용 효율화가 중요한 과제로 남아 있습니다.
OpenAI는 o3를 경량화한 모델인 o3-mini를 함께 발표했는데, 이 모델은 비용과 성능 면에서 주목할 만한 균형을 보여줍니다. 벤치마크 테스트 결과, o3-mini는 OpenAI의 이전 모델인 o1에 필적하거나 그 이상의 성능을 기록했으며, 무엇보다 o3뿐 아니라 o1에 비해서도 훨씬 저렴한 비용으로 작동합니다.
특히, Codeforces 테스트에서는 o1보다 훨씬 적은 비용으로도 o1을 능가하는 성과를 거두어, 경량화된 모델임에도 강력한 성능을 입증했습니다. **o3-mini(low)**와 **o3-mini(medium)**의 경우, 비용은 o1-mini보다 더 적게 들면서도 성능은 오히려 더 뛰어난 결과를 보여줬습니다. 이처럼 비용 대비 효율성이 우수한 o3-mini는 다양한 벤치마크에서도 o1에 거의 밀리지 않는 결과를 기록하며, o1의 대체재로 자리 잡을 가능성이 커 보입니다.
이러한 결과는, AI 기술의 성능 향상과 함께 점점 더 경제적인 모델을 개발하려는 OpenAI의 노력을 잘 보여줍니다. o3-mini의 성공은 고성능 AI를 보다 많은 사용자들이 접근 가능하도록 만드는 데 있어 중요한 이정표가 될 것입니다. 

반응형
LIST

아래 글은 ‘학습’을 수행할 때, 단순히 텍스트를 반복해 읽는 방식보다 셀프테스트를 활용하는 방식이 왜 더 효과적인지를 여러 연구 사례와 이론적 배경을 바탕으로 서술하고, 이어서 셀프테스트를 이용한 논문 읽기 방법을 제안한다.
 
반복 읽기와 셀프테스트 비교
먼저, 반복 읽기와 셀프테스트를 비교해 보면, 단순한 텍스트 반복 읽기는 학습 내용이 익숙해졌다는 느낌을 주는 데에는 효과가 있을 수 있으나, 장기적으로 기억을 고착시키는 데는 한계가 있다고 여러 교육심리학 연구에서 지적된다. 심리학자 로디거와 카피케(Roediger & Karpicke)가 2006년에 발표한 연구에 따르면, 텍스트를 여러 차례 읽은 집단과 텍스트를 읽은 뒤 테스트를 반복해서 본 집단을 비교했을 때, 후자의 집단이 장기 기억 유지 테스트에서 훨씬 높은 점수를 기록했다. 이어진 Karpicke(2012) 등 다양한 후속 연구에서도 셀프테스트를 통해 능동적으로 회상(retrieval practice)하는 방식을 적용하면, 문제 해결력과 비판적 사고력까지 향상된다는 결과가 보고되었다.
 

 
작동기억(Working Memory)과 장기기억(Long-Term Memory)의 관점에서 보면, 단순 반복 읽기는 정보를 시각적으로 재노출하는 데 그쳐서 단기적으로 익숙해졌다는 느낌은 줘도, 능동적 처리가 충분히 일어나지 않을 가능성이 크다. 반면, 셀프테스트를 통해 학습자가 직접 기억을 인출하고 질문에 답하려고 시도하면, 작동기억과 장기기억 사이를 오가며 신경망이 재구성되는 과정을 거치게 되고, 그 결과 더 견고하게 기억이 형성된다는 이론적 설명이 가능하다.
 
실증 연구 중 하나인 Roediger & Karpicke(2006, Psychological Science)에서는 과학 텍스트를 학습하는 대학생들을 대상으로, A 그룹은 네 번 연속으로 텍스트를 읽기만 하고, B 그룹은 한 번 읽고 나서 세 번의 테스트를 보는 방식으로 진행했다. 그 즉시 테스트한 결과에서는 두 집단 간 차이가 크지 않았지만, 일주일 혹은 이주일 뒤 장기 파지 검사를 했을 때는 B 그룹이 훨씬 높은 점수를 보였다. 또 다른 연구인 Karpicke & Blunt(2011, Science)에서는 개념지도 그리기나 요약하기 등 다양한 학습 전략을 실험했는데, 이 논문에서도 텍스트를 반복해서 읽는 것보다 셀프테스트가 개념 간 관계를 이해하고 기억하는 데에 더 효과적임을 보고했다. 또한 Agarwal, Bain, & Chamberlain(2012)의 연구에서는 초·중등학생을 대상으로 비교적 짧은 시간(약 10~15분)의 간단한 셀프테스트만으로도 시험 불안을 완화하면서 동시에 성적을 높이는 데 성공했다는 결과가 나타났다.
 
이러한 연구들을 종합하면, 셀프테스트 또는 회상 연습이란 전략이 장기기억 형성과 학습 성취도 향상에 매우 유리하다는 사실이 확인된다. 이를 논문 읽기에 적용할 때도 반복 읽기보다는 읽은 내용을 스스로 요약·질문·퀴즈 형태로 만들어 테스트하는 과정을 병행하는 편이 깊이 있는 이해를 돕고 오래 기억하게 만드는 데 효과적이다.
 
논문 공부하는 방법
논문을 읽을 때는 먼저, 초록(Abstract)과 서론(Introduction), 결론(Conclusion)을 빠르게 살펴보며 논문의 핵심 목표와 연구 문제가 무엇인지 큰 흐름부터 파악하는 것이 좋다. 이때 연구자가 설정한 가설과 주요 논의점이 어떤 것인지도 함께 확인한다. 그 다음, 본문에서는 방법(Methods)과 결과(Results), 그리고 논의(Discussion)를 순서대로 정독한다. 방법론을 통해 연구 설계와 실험 절차를 꼼꼼히 살펴보고, 결과가 어떤 방식으로 분석되었는지 이해하며, 연구진이 결론을 어떻게 해석하고 있는지 논의 파트를 통해 확인한다. 이때 핵심 용어가 등장하면 이를 내 문장으로 다시 풀어서 설명해 보거나, 연구자가 왜 이런 이론적 배경을 선택했는지를 스스로 질문해 보는 식으로 셀프테스트를 적용해 보면 좋다. 예를 들어, “연구자가 세운 가설은 구체적으로 어떤 근거에서 비롯되었는가?”, “결과 테이블에서 특정 지표가 유의미하다는 것은 어떤 의미인가?”, “이 연구의 한계는 무엇이며 후속 연구는 어떻게 이어질 것인가?” 같은 질문을 스스로 던지고 답해 보면서 능동적으로 인출 연습을 하면, 논문의 핵심을 훨씬 더 탄탄하게 익힐 수 있다.
 
정독을 마친 뒤에는 간단한 요약 문서를 작성하여 연구의 서론부터 결론까지의 내용이 어떻게 전개되는지 정리하고, 그래프나 개념지도를 그려 보며 중요한 개념들의 연관 관계를 시각적으로 표현해 보는 것도 좋다. 마지막으로는, 가상의 청중을 상정해 놓고 논문 내용을 설명한다면 어떻게 말할지 떠올려 보는 방식으로 셀프테스트를 한 번 더 해볼 수 있다. 예컨대 “이 논문의 핵심 개념을 학부생 수준에서 설명하려면 어떤 예시를 들면 이해가 쉬울까?”라는 식의 시나리오를 생각해 보는 것이다. 실제로 주변 사람에게 논문 내용을 말해 주거나, 개인 블로그나 노트 앱에 정리해 글로 남기는 것도 비슷한 효과를 낸다.
 
프로그래밍 학습 by 셀프테스트
프로그래밍 학습에서 셀프테스트 기법을 활용할 수 있는 다양한 온라인 플랫폼이 있습니다. 이러한 사이트들은 문제를 직접 풀어보며 자신의 실력을 점검하고 향상시킬 수 있는 환경을 제공합니다. 아래는 이러한 플랫폼 중 일부입니다:
 
프로그래밍 학습에서 셀프테스트(self-testing) 방법은 단순히 강의를 듣거나 코드를 따라 쓰는 방식에 비해 훨씬 효과적이라는 점이 여러 가지 이유로 입증되고 있습니다. 셀프테스트는 능동적 학습(active learning)의 핵심 전략 중 하나로, 학습자가 배운 내용을 직접 문제로 만들어 풀어보거나, 기존 문제를 풀며 자신의 이해 수준을 점검하는 과정입니다. 이 방법이 왜 효과적인지, 근거와 비유를 들어 설명하겠습니다.


근거 1: 능동적 회상과 기억 고착

셀프테스트는 학습자가 이전에 배운 내용을 인출(retrieval)해내는 과정을 반복적으로 요구합니다. 심리학 연구에 따르면, 기억은 단순히 정보를 입력하는 것(input)보다, 그 정보를 끄집어내는(output) 과정을 통해 더 견고하게 고착됩니다. 프로그래밍에서도 마찬가지입니다. 예를 들어, 단순히 코드 예제를 여러 번 읽고 이해했다고 느끼더라도, 막상 자신이 코드를 작성하려고 하면 제대로 떠오르지 않을 때가 많습니다. 그러나 셀프테스트를 통해 배운 내용을 문제 형태로 연습하면, 코드의 동작 원리를 더 깊이 이해하고 실전에서 더 쉽게 적용할 수 있습니다.
 
이 과정을 비유하자면, 프로그래밍을 배우는 것은 마치 레시피를 읽고 음식을 만드는 것과 비슷합니다. 레시피를 아무리 읽어도 실제로 요리를 하지 않으면 정확한 조리 과정을 기억하기 어렵습니다. 반면, 셀프테스트는 직접 요리를 해보는 것과 같아서, 어떤 재료를 언제 넣어야 하는지, 어떤 순서로 조리해야 하는지를 자연스럽게 체득하게 만듭니다.


근거 2: 실전 능력 강화

프로그래밍은 단순히 문법을 외우는 것만으로는 숙달될 수 없습니다. 복잡한 문제를 해결하려면 알고리즘을 설계하고, 논리적으로 사고하며, 디버깅까지 해내야 합니다. 셀프테스트는 이러한 실전 능력을 키우는 데 최적화된 방법입니다. 예를 들어, 셀프테스트 문제는 학습자가 특정 상황에서 필요한 함수를 호출하거나, 특정 조건에서 코드를 최적화하도록 요구할 수 있습니다. 이는 실무에서 발생하는 문제 해결 과정을 미리 경험하게 합니다.
 
이것을 피아노 연습에 비유할 수 있습니다. 악보를 보고 건반을 누르는 연습만 한다면 단순히 손가락 운동에 그칠 수 있습니다. 그러나 실제로 연주를 시도하며 실수를 교정하고, 템포를 조절하는 연습을 통해서만 공연 수준의 실력을 얻을 수 있습니다. 프로그래밍의 셀프테스트도 이런 실전 연습의 연장선상에 있습니다.


근거 3: 피드백 루프를 통한 자기 학습

셀프테스트의 또 다른 강점은 즉각적인 피드백을 통해 자신의 강점과 약점을 파악할 수 있다는 점입니다. 문제를 풀면서 어디에서 막히는지, 어떤 개념을 잘못 이해했는지 알게 되면, 학습자는 부족한 부분을 보완하기 위해 다시 학습에 집중할 수 있습니다. 이는 단순히 강의를 반복해서 듣거나 텍스트를 읽는 것보다 훨씬 효율적입니다.
 
이를 운동에 비유하자면, 셀프테스트는 개인 트레이너처럼 작동합니다. 트레이너는 운동을 하는 동안 자세가 틀리거나 특정 근육이 부족하다고 지적하며 개선 방향을 제시합니다. 셀프테스트를 통해 학습자는 자신의 문제 풀이 과정에서 잘못된 부분을 확인하고 바로 잡을 수 있습니다.


근거 4: 동기 부여와 학습의 재미

셀프테스트는 학습 과정에 흥미를 더해줍니다. 특히 프로그래밍 문제를 풀고 결과가 성공적으로 작동했을 때 느끼는 성취감은 강력한 학습 동기가 됩니다. 게다가 셀프테스트는 난이도를 조정하거나 새로운 문제를 만들어 도전할 수 있는 기회를 제공하기 때문에, 학습자는 자신의 성과를 실시간으로 체감할 수 있습니다.
 
이는 게임에 비유할 수 있습니다. 게임을 플레이할 때, 어려운 스테이지를 클리어하면 성취감과 동시에 다음 단계에 대한 도전 의욕이 생깁니다. 셀프테스트도 학습자가 문제를 해결하면서 점점 더 복잡한 문제에 도전하게 만들고, 이를 통해 꾸준히 학습에 몰입하도록 유도합니다.
 


 
결론적으로, 셀프테스트는 단순 반복 읽기에 비해 훨씬 더 오래 기억에 남고, 학습 내용을 능동적으로 재구성하게 하는 강력한 전략이다. 논문이나 전문서적을 읽을 때도 이러한 셀프테스트 과정을 습관화한다면, 단순히 시간을 들여 많이 읽는 것보다 훨씬 높은 효율과 깊은 이해도를 얻을 수 있다. 처음에는 질문을 만들고 답을 써 보는 작업이 다소 번거롭고 익숙하지 않을 수 있지만, 일단 익숙해지면 능동적인 회상 과정에서 학습의 재미를 찾게 되고, 지식을 더욱 단단히 체득하게 된다. 따라서 논리적 설명 학습을 비롯한 다양한 학습 장면에서 셀프테스트 기법을 적극적으로 도입해 보는 것이 좋다.

반응형
LIST

+ Recent posts