캐나다 초·중·고등학교에서 AI 활용이 일상화되고 있지만, 대다수 교육청이 뚜렷한 기준을 제시하지 못해 현장의 혼란이 깊어지고 있다. KPMG캐나다 조사 결과, 현재 학생 59%가 학교 과제에 AI를 활용하고 있다. 지난해 52%에서 급증한 수치다. 하지만 이들 중 65%는 부정행위로 간주될까 불안해하고, 67%는 실제 학습 효과가 떨어질까 걱정하는 것으로 나타났다. 13개 주·준주 가운데 AI 교육 지침을 마련한 곳은 BC주와 뉴브런즈윅주 단 두 곳뿐이다. BC주는 공정성과 보안을, 뉴브런즈윅주는 교직원·학생별 구체적 사용법을 제시했다. 일선 학교들은 각자도생하는 모습이다. 웨스트밴쿠버 교육청은 2년 전부터 학교 구성원들과 협의해 AI 정책을 수립했다. 교실 현장의 실제 사용 사례를 반영하고, 학부모 의견도 수렴했다. 교육계에서는 AI를 무조건 배척하기보다 올바른 활용법을 가르쳐야 한다는 목소리가 나온다. 캘거리대학교 교육학과는 "인터넷 사용법을 가르치듯 AI도 주의점과 활용법을 함께 교육해야 한다"고 제언했다. 일각에서는 AI 교육 공백이 장기화될 경우 학습 격차로 이어질 수 있다는 지적도 나온다. 명확한 지침 없이는 교사와 학생 모두 AI 활용을 꺼리게 되고, 결국 디지털 시대에 뒤처질 수 있다는 우려다. 전문가들은 "AI가 일상이 된 시대에 학생들의 혼란을 방치해선 안 된다"며 "교육 당국이 하루빨리 현실적인 가이드라인을 마련해야 한다"고 강조했다. 밴쿠버 중앙일보기준 숙제 캘거리대학교 교육학 학교 구성원들 학교 과제
2024.10.25. 10:50
캘리포니아 주의회가 학교에서 학생들에게 과도한 숙제를 내주는 걸 금지하는 법안을 추진하고 있어 주목된다. 필라 시아보 하원의원(민주·샌타클라리타)이 발의한 이 법안(AB2999)은 일명 ‘건강 숙제법’으로, 숙제 자체를 금지하지 않지만, 교육구와 학교가 학생의 신체 및 정신건강에 미치는 영향을 고려해 숙제를 낼 수 있도록 교직자 및 학부모 등으로부터 여론을 수렴해 관련 정책을 수립하도록 의무화시킨다. 법안 상정자인 시아보 의원은 간호사 출신으로, 최근 6학년생 자녀가 숙제로 힘들어하자 법안을 마련했다고 지역 언론인 폭스 채널40 뉴스는 29일 보도했다. 시아보 의원은 이 뉴스와의 인터뷰에서 “시대가 바뀌었다. 숙제 정책도 아이들에게 해를 끼치지 않고 효과적인지 확인해야 한다”며 “이 법안은 학생들에게 큰 영향을 미칠 것”이라고 강조했다. 시아보 의원에 따르면 스탠퍼드 대학과 비영리재단 챌린지 석세스가 30만 명 이상의 학생들을 상대로 시행한 설문조사 결과 학생의 45%가 스트레스 원인 1위로 숙제를 꼽았다. 또한 가주 고등학생 1만3000명 가량은 숙제를 위해 매일 밤 최소 2.5시간을 사용한다고 답했다. 장연화 기자 [email protected]주의회 숙제 캘리포니아 주의회 숙제 정책 주의회 아이들
2024.04.29. 19:58
최근 인공지능(AI)이 세계적인 관심을 끌고 있다. 아마 ‘챗GPT’가 보여준 전례 없이 뛰어난 성능 때문일 것이다. 챗GPT는 출시 2달 만에 월 사용자 1억 명을 돌파했다. 이미 의사면허시험(USMLE)과 미네소타 대학 로스쿨의 변호사 시험 합격 기준을 통과하는 등 성능 면에서도 우수한 평가를 받고 있다. 이에 위기를 느낀 세계 최대 검색엔진 업체 구글도 자체 개발한 대화 애플리케이션 ‘바드’를 서둘러 내놨다. 이미 빅 테크 업계는 인공지능을 활용한 서비스 개발에 집중하는 모습이다. 인간의 단순노동을 눈 깜짝할 사이에 뛰어난 생산성으로 대체해 버릴 인공지능 기술은 앞으로 더 다양한 분야에서, 더 많은 일에 관여하게 될 전망이다. 그러나 인간의 호기심은 윤리적 문제를 불러오는 경우가 많다. 인공지능도 그중 하나일 가능성이 있다는 게 전문가들의 진단이다. 따라서 인공지능이 인간의 삶에 기여하는 부분이 많아질수록 통제하는 것도 필요하다는 것이다. 챗GPT를 개발한 오픈AI의 미라 무라티 최고기술책임자(CTO)는 타임스지와 인터뷰에서 “챗GPT는 없는 사실을 지어내는 등 윤리적 문제를 일으킬 수도 있다”며 “AI가 고의로 악용될 시 발생하는 역작용도 우려해야 한다”고 말했다. 실제로 인터넷 커뮤니티 ‘레딧’에선 챗GPT로 하여금 다른 인격을 설정해 정치, 폭력 등 민감한 주제의 글을 생성하도록 만드는 꼼수를 공유하는 것이 유행하기도 했다. 이 밖에도 편향되거나 틀린 정보 공유, 개인정보 수집 여부, AI를 통한 의사 결정시 책임 여부 등 인공지능이 불러올 수많은 문제점에 대해 명확한 가이드라인 마련이 필요한 시점이다. 이를 위해 첫째, AI 활용 범위 확장에 앞서 학습 및 결과 도출 데이터의 공정성을 평가하는 기준이 도입돼야 한다. 현재는 개발 업체들이 AI의 학습 내용과 결과물을 직접 심사하고 판단해 차별 또는 편향된 정보를 차단하는 수준이다. 이는 사기업이 정한 기준으로 규제 범위와 목적이 모호하다는 한계가 있다. 또 많은 테크 기업들이 너도나도 인공지능 개발에 몰두하고 있는 상황에서 각기 다른 공정성 판단 기준을 적용하도록 방치하는 것은 고삐 풀린 말과 다름없다. 따라서 AI의 정보 수집 및 생성에 일관성 있고 명확한 규제 설정이 필요하다. 둘째, 개인정보 무단 수집과 사생활 침해에 대한 보호 수단을 마련해야 한다. 인공지능은 정보 학습을 위해 대규모 온라인 데이터베이스에 퍼져있는 정보 조각들을 수집한다. 이 과정에서 개인이 인터넷에 올린 전화번호, 사진, 생년월일 등 어떠한 형태의 개인 정보도 무단으로 수집돼 데이터 학습에 사용됐을 수 있다는 것이다. 또한 안면 인식 등의 정보를 보안 검증 수단으로 사용하는 곳에선 해당 신체 정보 입력이 강제되는 경우도 생길 수 있다. 최소한 개인의 선택으로 프라이버시를 보호할 수 있는 규제 수단이 있어야 한다. 셋째로 AI의 결정에 누가 책임을 질 것인가에 대해 고민해야 한다. 저작권도 마찬가지다. 서비스 활용에 따른 모든 이득을 AI 개발사에 돌릴 수 없듯이 모든 잘못을 사용자에게 오롯이 전가할 수도 없다. AI의 의사 결정에 따른다면 그 결과에 대한 책임은 사용자와 업체 모두 납득할만한 수준이 되어야 한다. 유럽연합(EU)은 이미 ‘인공지능법(AIA)’을 검토 중으로 올해 EU 의회 심사를 앞두고 있다. 일각에서는 ‘지금 한창 AI가 날개를 달고 발전해야 하는 시기에 규제가 웬 말이냐’라는 볼멘소리도 나온다. 물론 AI와 같은 혁신 기술은 끝없는 확장 잠재력이 있다. 하지만 미래에 우리의 일상을 바꾸게 될 AI는 책임감 있는 방식으로 발전해야 하며, 효과적인 통제를 위해선 정부, 기업, 개인 모두 나서야 한다. 우훈식 / 경제부 기자기자의 눈 숙제 개인정보 무단 인공지능 개발 정보 수집
2023.02.14. 20:15