703.409.7587 / 703.409.5142
재정 / 교육
2025 년 12 월 26 일- 2026 년 1 월 1 일 B-11
믿을 수 있는 전문 지도 / 합격 보장
SAT & AP 전 과목 완벽 대비 현직 교사의 실전 경험과 검증된 결과 자녀의 최상위권 대학 합격, 조 선생님이 책임집니다! 영어 · 수학 컨셉부터 점수까지 완전 정복
Digital
SAT
디지털 SAT, AP 완벽 대비
SAT, 조원장 직강!
National 상위 1 % 결과! 유일한 학원!
영어 SAT / AP SAT 전문 강의- 800 점 만점, 비법 입시 지도 페어팩스카운티 현직 고등학교 영어 교사 펜실베이니아대( UPenn) 영어교육 대학원 졸업 College Board 공식 AP 채점위원 2025 AP Lang 시험- 100 % 합격 / 만점( 5 점)
헵시바 협력교육기관
대면수업과 동일한 실시간 온라인 수업!
703.409.7587 / 703.409.5142
수학 SAT / AP
워싱턴과 미국 국제학교에 이미 소문난 페어팩스카운티 조 선생! SAT 전문 강의- 800 점 만점, 20 년 이상 지도 경력 24 시간 완성! 수학 컨셉 집중 지도 고려대학교 물리학과 졸업( 이중언어 가능) 에디슨아카데미 원장 직강! 2025 AP 수학 시험-100 % 합격 / 만점( 5 점)
▶8면 < 추론하는 AI > 에 이어 불투명하기 때문에 신뢰하기 어렵다. AI가 생물학 교과서를 읽거나 만화책을 읽어서 암 을 만들어냈는지 알 수 없다면 암 치료법을 믿을 수는 없다. 스트로베리에게 복잡한 논리 퍼즐을 풀라고 요청하는 것과 같은 프롬프트를 주면, " 생각 " 하고 있다면서 시작한다. 몇 초 후에 " 변수 정 의 " 라고 지정하고 몇 초만 더 기다리면 방정 식을 알아내는 단계에 있다고 표시된다. 결국 답을 얻고 AI가 무엇을 해왔는지 어느 정도 감을 잡을 수 있다.
그러나 그것은 꽤 흐릿한 감각이다. AI가 무엇을 하고 있는지에 대한 세부 사항은 아직 밝혀지지 않았다. OpenAI 연구원이 사용자 에게 세부 정보를 숨기기로 결정했기 때문이 고, 부분적으로는 경쟁사에 영업 비밀을 공개 하고 싶지 않기 때문이며, 부분적으로는 AI 가 처리할 때 생성하는 음모나 불쾌한 답변을 사용자에게 보여주는 것이 안전하지 않을 수 있기 때문이다. 연구자들은 미래에는 생각의 사슬이 훨씬 더 복잡한 행동에 대해 모델을 모니터링 할 수 있게 해줄 수 있다고 말한다. Strawberry 가“ 방정식 도출” 이라고 말할 때 실제로 " 방
AI 가 임의로 결과를 정렬하고 우선 순위 부여 추론 기능은 확실한 개선이면서 한층 더 큰 위험
정식을 도출 " 하고 있는지 확신할 수 없다. 마 찬가지로, 생물학 교과서를 참조하고 있다고 말할 수 있지만 실제로는 만화책을 참조하고 있을 가능성이 있다. 기술적인 실수 때문이 든, AI 가 장기적인 목표를 달성하기 위해 속 이려는 것이든, AI 를 볼 수 있다는 감각은 환 상일 수 있다.
사소한 개선에서 엄청난 결과 초래할 수 있어 대규모 언어 모델의 오랜 한계를 갑자기 해 결할 수 있는 묘책은 없다. 대신, 그것들이 일 련의 공개를 통해 점차 침식될 것이라고 보이 며, 상상할 수 없는 것이 몇 년 동안 달성 가 능해지고 그 다음에는 평범한 일이 될 것으 로 생각된다. 이것이 바로 AI 가 지금까지 진행해 온 방식 이다. 그러나 그 자체로 OpenAI 의 이전 챗봇 에 비해 약간 개선되었지만 하룻밤 사이에 수
억 명의 사람들에게 도달한 ChatGPT 가 보 여주듯이 기술적 진보가 점진적이라고 해서 사회적 영향이 점진적인 것은 아니다. 때로는 작동하는 방식의 여러 부분을 개선하거나 챗 봇 자체와 같이 더 많은 사람들이 시도할 수 있도록 도구를 개선하는 과정에서 " 부분적 속 임수 " 에서 " 필수 수단 " 으로 경계의 문턱을 넘 어가게 된다.
그리고 OpenAI 는 최근 그들의 작업이 안 전에 미치는 영향을 무시하고 내부 고발자를 침묵시킨다는 비난을 받았다. 하지만, o1 릴 리스는 외부 조직과 협력해 모델이 무엇을 할 수 있는지 확인하는 것을 포함해 정책적 함의 를 진지하게 받아들이는 것으로 보인다. 그 일을 가능하게 해준 것에 대해 감사하고, 모델이 계속 개선됨에 따라 그 어느 때보다 성실한 작업이 필요할 것이라는 느낌이 강하 게 들도록 만든다.
위험한 AI 모델 제지하는 법은? OpenAI 에는 위험 점수가 " 중간 " 이하인 모 델만 배포할 수 있는 규칙이 있다. 스트로베 리를 통해 회사는 이미 그 한계에 부딪혔다. 이로 인해 OpenAI 는 애매한 위치에 놓이게 된다. 스스로 정한 장벽을 넘지 않고 인간을 능가하는 AI 를 만든다는 명시된 목표를 달성 하려면 어떻게든 더 발전된 모델을 개발하고 배포할 수 있어야 한다. OpenAI 가 자신의 윤 리적으로 밝은 선 안에 머물기를 희망한다면 대중에게 공개할 수 있는 것의 한계에 가까워 지고 있을 수 있다. 회사는 이론적으로 선을 다시 그릴 수 있다. " 중간 " 위험 이하를 고수하겠다는 OpenAI 의 약속은 자발적인 약속일 뿐이다. 낮음, 중간, 높음 그리고 중요 위험의 정의를 거부하거나 조용히 변경하는 것을 막을 수는 없다. 기업들이 안전을 최우선으로 생각하도 록 강제하는 규제가 필요하며, 특히 OpenAI 와 같은 회사는 수익성을 입증하기 위해 제 품을 빠르게 상용화하려는 강력한 인센티브 를 갖고 있다. 투자자에게 수십억 달러의 자금에 대한 재 정적 수익을 보여주어야 한다는 압박을 받고 있다.