Microsoft Edge에서 ‘소리내어 읽기’로 편하게 글 읽는 방법

Microsoft Edge 브라우저에는 ‘소리내어 읽기’ 기능이 내장되어 있습니다. 🔊 자연스러운 퀄리티 음성을 언어별로 선택할 수 있어서 특히 외국어로 된 뉴스나 문서를 읽을 때 매우 유용합니다. 최소 70개 이상의 언어를 지원하고 각각 다양한 억양을 선택할 수 있습니다. 🌐

다만 이 기능을 사용하면서 항상 아쉬웠던 것이 한국어였습니다. 🇰🇷 선택할 수 있는 음성이 무척 제한적이었거든요. 그런데 얼마 전에 살펴 보니 한국어에 ‘현수’라는 한국어 음성이 추가되어 있었습니다. 들어 보면 사람처럼 무척 자연스러울 뿐 아니라 매우 감미로운 목소리라는 것을 알 수 있습니다. 💡



‘소리내어 읽기’는 긴 글을 읽기 어려워하는 모든 사람에게 도움이 됩니다. 하지만 특히 저와 같은 시각장애인에게는 더욱 큰 도움이 되죠. 🦯 화면에는 포커스가 함께 움직이고 있어서 눈으로 글을 따라가기 어려운 저시력이나 난독증이 있는 사람에게도 편리합니다. 👓

‘소리내어 읽기’는 PC와 모바일 어디에서나 무료로 사용할 수 있습니다. 사용법도 무척 간단합니다. 아래는 Windows PC와 iPhone에서 사용하는 방법입니다. 🖥️📲


Windows PC에서 소리내어 읽기 사용하기 👇


  1. Microsoft Edge 브라우저를 엽니다. 🌐
  2. 소리내어 읽기를 사용하려는 웹 페이지나 PDF 파일을 엽니다. 📄
  3. 주소 표시줄에서 소리내어 읽기를 클릭하거나 Ctrl+Shift+U 키보드 단축키를 누릅니다. 🔊
  4. 소리내어 읽기 도구 모음이 나타납니다.
  5. 재생 버튼을 클릭하여 소리내어 읽기를 시작합니다. ▶️
  6. 일시 정지와 문단별 이동이 가능합니다. ⏸️
  7. 음성 드롭다운 메뉴에서 속도 슬라이더를 사용하여 소리내어 읽기 속도를 조정할 수 있습니다. 🎚️
  8. 음성 드롭다운 메뉴에서 언어별 다른 음성을 선택할 수 있습니다. 🌏


iPhone에서 소리내어 읽기 사용하기 👇


  1. Microsoft Edge 브라우저 앱을 엽니다. 📱
  2. 소리내어 읽기를 사용하려는 웹 페이지나 PDF 파일을 엽니다. 📄
  3. 주소 표시줄에서 소리내어 읽기를 탭합니다. 🔊
  4. 주소 표시줄에 나타나지 않는다면 하단의 공유 아이콘을 클릭하고 소리내어 읽기를 선택합니다.
  5. 소리내어 읽기 도구 모음이 나타납니다.
  6. 재생 버튼을 탭하여 소리내어 읽기를 시작합니다. ▶️
  7. 일시 정지와 문단별 이동이 가능합니다. ⏸️
  8. 음성 드롭다운 메뉴에서 속도 슬라이더를 사용하여 소리내어 읽기 속도를 조정할 수 있습니다. 🎚️
  9. 음성 드롭다운 메뉴에서 언어별 다른 음성을 선택할 수 있습니다. 🌏


Mac PC와 Galaxy폰에서는 테스트해 보지 않았지만 대동소이한 방법으로 사용 가능할 것으로 보입니다. 이젠 인터넷에서 ‘소리내어 읽기’를 사용해서 어떤 글이든 편하게 귀로 들으면서 읽어 보세요! 📖🎧

[팁] 한글문서에서 키보드로 v 표시된 체크상자(☑) 빠르게 입력하는 방법

컴퓨터로 서류를 작성하다 보면 동의 여부에 체크하는 란이 있는 경우가 많은데요. 그때마다 기호를 찾아서 입력하는 것이 생각보다 번거롭습니다.

아래는 한글과컴퓨터의 한글에서 마우스를 사용하지 않고 키보드만으로 v 표시된 체크상자를 입력하는 방법입니다. ⌨️🚀


  • Ctrl + F10을 눌러 문자표 대화상자를 엽니다.
  • 유니코드 문자표 페이지 탭에 포커스를 맞춥니다.
  • Alt + u를 눌러 유니코드 입력창으로 포커스를 이동합니다. 
  • 키보드에서 2611을 치고 엔터를 누르면 커서가 있던 자리에 ☑가 입력됩니다.
  • 보통 Ctrl + F10을 누르면 유니코드 편집창에 포커스가 위치하기 때문에 바로 2611을 입력하고 엔터를 치면 됩니다.


이 외에 각종 문서에서 자주 사용하는 기호들에 대한 유니코드 포인트는 다음과 같습니다. 숫자만 있는 것도 있고 숫자와 알파벳의 조합도 있습니다. 대소문자는 구분하지 않습니다.


  • 동그라미 1 ①: 2460
  • 동그라미 기역 ㉠: 3260
  • 동그라미 안 가 ㉮: 326e
  • 동그라미 안 나 ㉯: 326f
  • 동그라미 안 다 ㉰: 3270
  • 동그라미 안 대문자 A Ⓐ: 24b6
  • 동그라미 안 소문자 a ⓐ: 24d0
  • 로마숫자 대문자 1 Ⅰ: 2160
  • 왼쪽 화살표 ←: 2190
  • 오른쪽 화살표 →: 2192
  • 낫표 열고 「: 300c
  • 낫표 닫고 」: 300d


위 방법은 유니코드를 사용하는 방법입니다. 유니코드(Unicode)는 전 세계의 모든 문자체계를 컴퓨터에서 사용할 수 있도록 만든 국제 표준 코드입니다. 한컴오피스의 한글뿐 아니라 다양한 문서 작성 프로그램에서 유니코드를 지원합니다.

더욱 간단한 기호들은 아스키 코드를 사용해서 쉽게 입력할 수 있습니다. 키보드로 아스키 코드를 입력하는 방법은 이 포스팅을 참고하세요! 📃

[팁] 키보드만으로 이모지와 다양한 기호 빠르게 입력하는 방법(알트 입력법 포함)

요즘엔 소셜 미디어나 메신저에서 이모지를 사용하는 빈도가 매우 높습니다. 뿐만 아니라 키보드에 별도 키로 존재하지 않는 글머리 기호(•, ‘불릿 기호’ 또는 ‘구분점’이라고도 함)와 같은 흔한 기호를 입력하는 것도 여전히 곤욕입니다. 심지어 작은따옴표(‘ ’) 같은 쉬운 기호도 키보드에 있는 아포스트로피(') 키로 쓰다 보면 앞뒤가 뒤집혀서 속까지 뒤집히는 경우가 일상다반사이죠. 😅

문제는 이런 디지털 소통 방식이 저와 같은 시각장애인에게는 단순히 답답한 것을 넘어 관계의 장벽이 된다는 사실인데요. 마우스 사용이 어렵다 보니 이모지 패널에서 고르는 것도 쉽지 않습니다. 👀🚫🖱️

하지만 PC를 사용하는 분이라면 키보드를 통해 다양한 이모지와 기호를 빠르고 효율적으로 표현할 수 있습니다. 단, 기호 입력을 위해선 숫자패드가 있는 키보드가 있어야 합니다! 🌟

아래는 키보드만으로 이모지와 다양한 기호들을 손쉽게 입력하는 방법입니다. 🎉👩‍💻


1. 키보드로 이모지 입력하는 방법


  • 윈도우 사용자는 윈도우 키 + . 또는 윈도우 키 + ;을 동시에 누르세요.
  • 맥 사용자는 Cmd + Ctrl + Space를 누르세요.
  • 이모지 패널이 열립니다. 여기서 원하시는 이모지를 선택하고 엔터를 누르신 후 esc를 누르시면 커서가 있는 자리에 이모지가 나타납니다.
  • 이모지의 카테고리는 최근에 사용한 항목, 웃는 얼굴 및 동물, 피플, 축하 행사 및 물건, 음식 및 식물, 교통편 및 장소, 기호로 나뉘어 있고, 각 카테고리에 수백 개씩 있습니다. 원하시는 이모지를 골라 쓰시면 됩니다.


2. 키보드로 다양한 기호 입력하는 방법


    알트 입력법을 사용하는 방법입니다. 영어 알파벳(대문자와 소문자), 숫자, 일반적인 구두점, 특수 문자 등 다양한 문자를 키보드로 표현할 수 있습니다. 알트 입력법에 대한 자세한 설명은 나무위키 기사를 참고하세요!
  • 윈도우 사용자는 숫자패드의 Num Lock을 활성화한 후, Alt키를 누른 상태에서 숫자패드로 숫자를 입력하세요.
  • 예를 들어, Alt 키를 누른 채로 숫자패드에서 149를 입력하고 Alt 키를 떼면 커서가 있는 자리에 글머리 기호(•)가 입력됩니다. 
  • 여는 작은따옴표의 코드는 145, 닫는 작은따옴표는 146이고, 여는 큰따옴표는 147, 닫는 큰따옴표는 148입니다. 말줄임표는 133, 가운뎃점은 183입니다.
  • 맥 사용자는 Option 키를 누르고 다른 키를 조합해서 원하는 기호를 입력합니다. 다만 윈도우에서의 코드와 조합하는 키가 다르다고 합니다.
  • 예를 들어, 글머리 기호(•)를 입력하려면 Option + 8을 누르면 된다고 하는데 직접 확인해 보진 않았습니다.


제가 사용한 운영체제는 윈도우 10과 11입니다. 하지만 맥에서도 위에 안내한 방법으로 무리 없이 이모지와 다양한 기호를 입력하실 수 있으리라 생각합니다.

이제부턴 소셜에서 대화하거나 문서 작성할 때 이모지와 기호를 풍부하게 사용해 보세요! 🌈🌟 모두가 쉽게 접근하고 사용할 수 있는 디지털 커뮤니케이션 환경을 만들어 봅시다! 💪🌍

[팁] 센스리더로 인터넷 탐색할 때 자주 사용하는 키 13개

윈도우에서 인터넷을 사용할 때 일반적으로 Chrome이나 Edge와 같은 브라우저를 사용하게 됩니다. 저 같은 시각장애인이 인터넷을 사용할 때는 브라우저에 장착된 TTS를 사용하는 경우도 있지만 웹 페이지와 다양한 인터랙션을 해야 하기 때문에 스크린 리더를 사용하는데요. 한국에서 시각장애인들이 가장 많이 사용하는 스크린 리더는 (주)엑스비전테크놀로지가 개발한 센스리더입니다.

요즘처럼 다양한 소프트웨어 서비스가 웹에서 구현되는 시대에는 웹 페이지를 탐색하는 능력이 중요합니다. 웹 페이지에 어떤 내용이 있는지 파악을 해야만 그 웹 페이지가 제공하는 서비스를 이용할 수 있을 테니까요.

아래는 센스리더를 사용해서 인터넷을 탐색할 때 알아두면 유용한 키 13개입니다. 실제로 저는 이 13개의 키를 인터넷에 접속할 때마다 거의 매번 사용하고 있는데 탐색이 매우 빨라져서 편리합니다. (아래 목록은 피드백을 통해 계속 업데이트하겠습니다)


* 운영체제는 윈도우 10이며 센스리더 탭키 설정 중 ‘브라우저 탭키’ 환경을 기본으로 합니다.


[웹 브라우저에서 자주 사용하는 센스리더 탐색 키 13개]


  • h: 다음 헤딩으로 이동
      - 다음 제목이나 소제목으로 포커스를 이동합니다. 인터넷 기사나 블로그에서 목차별로 빠르게 이동해야 할 때 유용합니다.
  • 숫자 1~6키: 헤딩1부터 헤딩6까지 다음 헤딩 레벨로 이동
      - 다음 헤딩 레벨로 포커스를 이동합니다. 큰 제목부터 작은 제목까지 헤딩1~헤딩6으로 분류되는데 같은 헤딩 레벨 사이를 탐색할 때 유용합니다.
  • n: 다음 컨트롤로 이동
      - 다음 주요 컨트롤로 포커스를 이동합니다. 버튼, 라디오버튼, 체크상자, 풀다운 메뉴, 편집창 등 주요 컨트롤을 빨리 탐색해야 할 때 유용합니다.
  • l: 다음 링크로 이동
      - 다음 링크로 포커스를 이동합니다. 웹 페이지에서 링크만 빠르게 탐색할 때 유용합니다.
  • z: 본문 영역으로 이동
      - 해당 페이지의 본문 영역으로 포커스를 한 번에 이동합니다.
  • i: 목록 내에서 다음 항목으로 이동
      - 목록 안에서 다음 항목으로 포커스를 이동합니다. 목록 안에 텍스트나 컨트롤이 구분점이나 숫자로 나열되어 있는 경우 빠르게 탐색할 때 유용합니다.
  • Ctrl + Alt + 방향키: 테이블 내에서 항목 간 이동
      - 테이블 안에서 항목 간에 좌우, 위아래로 포커스를 이동합니다. 행과 열이 있는 테이블 안에 텍스트나 컨트롤이 배치되어 있는 경우 빠르게 탐색할 때 유용합니다.
  • F2: 다음 편집창으로 이동
      - 다음 편집창으로 포커스를 이동합니다.
  • F3: 다음 검색한 문자열로 이동
      - 웹 페이지 내에서 Ctrl + f를 이용하여 문자열을 검색한 경우 다음 같은 문자열이 있는 위치로 포커스를 이동합니다.
  • F4: 다음 텍스트로 이동
      - 다음 텍스트로 포커스를 이동합니다.
  • F6: 다음 브라우저 기능 영역으로 이동
      - 브라우저 내에서 다음 기능 영역으로 포커스를 이동합니다. 페이지 영역, 툴바, 탭바, 사이드바 등 브라우저 영역 사이를 탐색할 때 유용합니다.
  • Tab키: 다음 링크 또는 컨트롤로 이동
      - 다음 링크나 컨트롤로 포커스를 이동합니다. 단 탭키는 센스리더 포커스뿐 아니라 브라우저의 포커스도 함께 이동시킵니다.
  • Ctrl + Tab키: 다음 페이지 탭으로 이동
      - 다음 페이지 탭으로 창을 전환합니다. 브라우저에 여러 개의 페이지 탭이 열려 있을 때 그 사이를 이동할 수 있습니다.


위 키는 모두 Shift 키와 함께 누르면 반대 방향으로 포커스를 이동합니다. 예를 들어 이전 헤딩으로 이동하고 싶다면 Shift + h 키를 누르면 됩니다.

가상 자원봉사자 추가한 비마이아이즈, 챗GPT와 챗봇에 베팅하며 접근성 소프트웨어를 새롭게 정의하다 - 포브스 [전문 번역]

2023년 3월 14일, 오픈AI가 GPT-4를 발표했습니다. 이번 버전이 기존의 GPT 시리즈와 가장 차별화되는 지점 중 하나는 이미지를 인식할 수 있게 되었다는 것입니다. 오픈AI는 발표에서 새로운 이미지 인식 기술을 비마이아이즈(Be My Eyes)에 적용했다고 밝혔습니다.

비마이아이즈는 시각장애인 및 저시력인들을 온라인에서 실시간으로 자원봉사자와 연결해주는 앱입니다. 비마이아이즈는 오픈AI와의 협업으로 가상 자원봉사자(Virtual Volunteer)를 두게 되었습니다. 시각장애인 사용자들은 바로 비마이아이즈 앱에서 가상 자원봉사자 베타 서비스를 신청할 수 있습니다.

시연 영상을 보면 시각장애인 사용자가 앱에서 바로 사진을 찍거나 업로드한 후에 그 이미지에 관해 챗GPT와 채팅을 하며 이미지에 대한 정보를 얻는 것을 알 수 있습니다. 원래 비마이아이즈가 자원봉사자와 실시간 연결해서 영상으로 도움을 받는 서비스라는 것과 비교하면 이번 가상 자원봉사자 기능은 정지된 이미지에 대해서 정보를 얻는다는 점에서 채팅이 가능한 설리번 앱에 가깝다고 볼 수 있습니다.

이와 관련해서 포브스(Forbes)에 실린 인터뷰 기사를 번역했습니다. 기사를 기고한 스티븐 아퀴노(Steven Aquino)는 샌프란시스코에 거주하는 프리랜서 기술 저널리스트로 접근성 및 보조 기술을 주로 다룹니다. 이 기사에는 비마이아이즈가 어떻게 오픈AI와 협업하게 됐는지 배경 설명이 상세하게 나옵니다.

--------------------


가상 자원봉사자 추가한 비마이아이즈, 챗GPT와 챗봇에 베팅하며 접근성 소프트웨어를 새롭게 정의하다 - 포브스 [전문 번역]

스티븐 아퀴노(Steven Aquino) 기고

2023년 3월 20일, 오후 05:12


비마이아이즈가 새로운 ChatGPT 기반 가상 자원봉사자 기능을 발표했습니다. BE MY EYES


이번 달 초에 마이크로소프트의 제니 레이-플러리(Jenny Lay-Flurrie)와 앉아 이야기를 나눌 때 인공지능이 향상된 챗봇이 보조 기술(assistive technology)로서 어떤 잠재력이 있는가가 뜨거운 화두였습니다. 그녀는 자폐증과 ADHD를 가진 십대 딸이 최근 학교가 왜 수어 수업을 제공해야 하는가에 대한 에세이를 쓰는 과정에서 챗GPT 기반의 새로운 Bing 검색엔진이 어떻게 도움이 되었는지 개인적인 경험담을 들려주었습니다. 플러리는 이러한 챗봇들이 운동과 인지의 부하로 인한 마찰점을 줄여줄 수 있다고 말했습니다. 특히 신경 발달이 남들과 다른(neurodivergent) 사람들에게는, 기존의 자료를 조사하는 방법이 다루기 어렵고 부담스러울 수 있기 때문입니다.

“[AI 챗봇들은] 아주 빠르게 상당량의 정보를 수집해주죠. 많은 시간을 절약할 수 있어요.” 플러리는 장애인들의 접근성을 변화시킬 챗봇의 잠재력에 관해 이야기하면서 말했습니다. 운동성 측면에서 생각해보면, 10개에서 20개의 다른 검색을 수행하고 여러 웹사이트를 방문하는 대신 몇 번의 클릭으로 손끝에서 필요한 정보를 얻을 수 있게 됐어요. 원하는 게 바로 나타나죠. 이것은 특히 신경 다양성에 큰 영향을 미칠 거예요... 저는 난독증과 통합운동장애(dyspraxia)를 생각하고 있어요. 학습 과정이 필요하죠. 확실히 우리는 써 보면서 배우고 있고, 이러한 도구에서 최선을 얻는 방법을 배우고 있어요. 파급력이 크다고 생각해요.”

당연히 플러리만 그렇게 흥분한 것은 아닙니다. 비마이아이즈도 매우 흥분하고 있습니다. 지난주에 게시된 블로그 글에서 비마이아이즈는 가상 자원봉사자(Virtual Volunteer)라는 새로운 기능을 소개하는 것에 “매우 기쁘다”고 밝혔습니다. 이해를 돕기 위해 소개하자면, 비마이아이즈는 시각장애인 및 저시력인을 시력이 있는 자원봉사자와 연결하는 서비스(iOS 및 Android에서 사용 가능)입니다. 자원봉사자는 우유 팩의 유통 기한과 같은 물리적 라벨을 해독하는 데 도움을 줍니다. 이 애플리케이션은 2021년 WWDC에서 사회적 영향 부문의 애플 디자인상을 받았습니다. 비마이아이즈는 전 세계적으로 150개 국가에 걸쳐 180개 언어를 사용하는 630만 명 이상의 자원봉사자를 자랑합니다.

비마이아이즈의 정신에 충실한 가상 자원봉사자는 사람 자원봉사자와도 개념적으로 매우 유사합니다. 차이점은 인공지능이 실시간으로 제공할 수 있는 정보의 폭과 깊이입니다. 요리 레시피를 예로 들 수 있습니다. 가상 자원봉사자는 소위 “동적” 이미지-투-텍스트 생성기를 통해 작동하는데 사용자가 소프트웨어에 이미지를 입력하면 즉시 그 결과를 얻는 식입니다. 비마이아이즈는 이 발표에서 이 도구가 사람들이 “물리적 환경을 더 잘 탐색하고, 일상적인 필요를 해결하고, 더 많은 독립성을 확보할 수 있는 강력하고 새로운 자원”을 제공한다는 점에서 “혁신적(transformative)”이라고 믿는다고 밝혔습니다.

지난주 말에 실시한 화상 회의 인터뷰에서, 비마이아이즈의 의장 겸 최고경영자인 마이크 버클리(Mike Buckley)는 이 기능을 도입하게 된 계기가 두 가지라고 설명했습니다. 첫째, 회사가 사용자들이 왜 전화를 거는 것을 꺼리는지 알아보기 위해 설문을 진행했는데 버클리의 표현을 빌리자면 가장 큰 이유가 “사려 깊음” 때문이었다는 것입니다. 즉, 사람들이 봉사자의 시간을 “도움이 더 필요한” 사람으로부터 빼앗고 싶어 하지 않는다는 것입니다. 다른 이유로는 전화로 낯선 사람과 대화하는 것에 대한 불편함(가상 자원봉사자의 존재 이유를 설명해주는 대목)과 전화 통화가 자율성과 독립성에 대한 기분을 저해할 수 있다는 점이었습니다.

둘째, 버클리에 따르면, 가상 자원봉사자를 도입하게 된 또 다른 계기는 오픈AI와 나눈 GPT-4 기술에 대한 대화였습니다. 두 회사 간의 대화는 최근인 1월에 시작되었습니다. 처음에는 일반적인 성격의 논의가 이루어졌고, 플러리가 저에게 AI 챗봇에 대한 마이크로소프트의 견해에 대해 공유했던 것과 비슷한 맥락이었습니다. 그러다가 2월에 버클리는 오픈AI가 당시 발표되지 않은 챗GPT의 새 버전에 대해 비밀이 있다며 비마이아이즈를 찾아왔다고 말했습니다. 비공개 계약은 없었으며, 오픈AI는 접근성 맥락에서 엄청난 가능성을 가질 수 있는 새로운 기술에 대한 비밀을 비마이아이즈를 믿고 맡겼다는 것입니다.

“그들[오픈AI]은 우리에게 데모를 보여주며 ‘함께 작업하고 제품의 베타 테스터 그룹을 구성할 의향이 있느냐’고 물었어요.” 버클리는 비마이아이즈가 OpenAI와 파트너십을 맺게 된 계기에 대해 이렇게 말했습니다. “그래서 우리는 ‘정말 흥미진진하게 들리네요. 안전성에 관해 이야기해 주세요. 제품의 효능에 관해 이야기해 주세요, 우리 커뮤니티 구성원들이 이 제품을 개발하고 피드백을 주고 개선하는 데 참여할 수 있도록 보장해 주시겠습니까?’라고 물었죠. 그들은 ‘예’라고 대답했습니다.”

그는 계속했습니다. “우리는 그들[OpenAI]이 이러한 문제들에 대해 정말로 신중하게 생각하고, 안전과 사회를 우선적으로 고려하는 모델로 접근한다고 믿습니다. 그래서 그들과 함께 일하기가 아주 수월했죠. 글쎄요, 이 제품[가상 자원봉사자)을 만드는 건 대략 5주 반 정도의 단거리 경주였습니다. 출발선에서 보면 우리는 2월 첫째 주에 작업을 시작했던 것 같아요. 솔직히 말해서, 그들과 함께 일하는 건 정말로 좋았습니다. 그 일은 실제로 일어났으니까요.”

다른 많은 앱처럼, 비마이아이즈는 iOS에서 먼저 가상 자원봉사자를 출시하기로 결정했습니다. 이 회사의 최고기술책임자(CTO)인 예스퍼 헨릭센(Jesper Henriksen)은 이 선택이 매우 의도적이라고 말했습니다. 버클리와 동시에 진행된 인터뷰에서 헨릭센은 이러한 결정의 큰 이유 중 하나로 아이폰 내부의 강력한 칩과 아이폰의 보편성을 들었습니다. 또한 비마이아이즈는 작은 조직이며, 따라서 팀이 처음부터 자원을 집중하는 것이 중요하다고 말했습니다. 대체로, 헨릭센은 애플이 iOS와 macOS를 최대한 접근 가능하게 만드는 데 “소프트웨어 측면에서” 꾸준한 헌신을 보여준다는 점에서 칭찬해주어야 한다고 말했습니다. 그는 안드로이드도 개선되고 있다고 덧붙였지만, 보조 기술 분야에서 애플이 역사적으로 “업계 나머지 회사들보다 꽤 오랫동안 앞서 있다”고 명확하게 말했습니다.

버클리는 가상 자원봉사자의 출현이 중요한 순간이라고 생각하고 있습니다.

“우리 커뮤니티에서 이 정도의 흥분을 본 적이 없는 것 같아요.”라고 그는 말했습니다. “과거 어느 때보다도, 아마도 아이폰이 출시되었을 때였을 겁니다. 커뮤니티는 이 새로운 접근성 기능이 아이폰과 비슷하거나 적어도 그에 필적하는 기능이라는 사실에 매우 흥분한 것 같습니다. 흥분이기도 하고, 낙관주의이며, 희망이기도 하죠.”

피드백 면에서 지금까지 가장 초기 단계임에도 가상 자원봉사자는 큰 성공을 거두었습니다. 버클리는 가상 자원봉사자가 발표된 후 처음 48시간 동안 “4000명 이상”의 시각 장애인과 저시력인이 서비스에 가입했다고 말했습니다. 헨릭센은 가상 자원봉사자를 사용하여 집안에서 애완용 카나리아의 위치를 찾아 새장에 다시 넣을 수 있도록 도와준 한 가족의 이야기를 공유했습니다. 이 사례는 이 기능의 유용성을 보여주는 예외적인 사례이긴 하지만, 그럼에도 “이 기술이 어디로 갈지”를 예측할 수 있는 좋은 예시라고 헨릭센은 말했습니다.

버클리는 기술의 미래는 커뮤니티와 관련된 것이라고 말했습니다.

“우리는 시각장애인과 저시력인이 기술 개발의 모든 단계와 제품 구축에 참여하기를 바랍니다.” 버클리가 말했습니다. “우리가 내부적으로 이야기하고 거의 매일 하는 말이지만, 우리는 시각장애인과 저시력인이 자신의 필요에 맞게 이 기술을 활용할 수 있도록 힘을 실어주고 싶습니다. 그렇게 커뮤니티에 힘을 실어주면 장기적인 비즈니스 모델도 찾아낼 수 있을 것입니다.”

실제 제품 로드맵에 대해 버클리는 비마이아이즈 팀이 생각하고 있는 것이 많으며 그 가능성은 매우 흥미진진하다고 말했습니다. 가상 자원봉사자가 온라인 쇼핑이나 여행과 같은 서비스를 더욱 접근하기 쉽고 포용적으로 만들 수 있다고 믿고 있습니다. 또한 몇 주 안에 초기 기업 베타 테스터를 발표할 예정이라고 귀띔했습니다. 이 말들과 함께 버클리는 AI 챗봇에 대한 끊임없는 과대광고와 디스토피아적 사고의 홍수에 대해 “매우 조심스럽다”는 입장을 밝히며 AI 챗봇이라는 카테고리에 대한 흥분을 재빨리 누그러뜨리기도 했습니다. 그럼에도 그는 가상 자원봉사자를 통해 장애인을 위해 긍정적인 방식으로 게임의 판도를 바꿀 수 있는 챗GPT의 능력을 굳게 믿고 있었습니다. 그는 가상 자원봉사자의 잠재적 영향력에 대해 “전 세계적으로 접근성을 혁신할 수 있다고 믿습니다.”라고 말했습니다.

그러한 감정은 비마이아이즈의 지향점(North Star)과 완벽하게 일치합니다.

버클리는 “2억 5천만 명의 사람들에게 세상을 더 접근 가능하게 만들고 그들을 지원하는 것이 우리의 가장 중요한 목표예요.”라고 말했습니다.