📌 기획자, 마케터를 위한 강의를 주 콘텐츠로 하는 그로 스쿨의 ux writing 강의로, 현시점 대한민국 교육 플랫폼상에 공개된 유일한 ux writing강의
강의 링크 👇
연사분은, 현재 그로 스쿨의 CBO분이다. 해당 교육 플랫폼의 재직자가 강의를 찍는다는 것 자체가 신뢰를 갖는 형태는 아니라고 생각한다. 다른 연사분들에 비해 허들이 낮았을 것이기에 전문성에 대한 의구심을 갖게 한다.
게다가 연사님의 이력이 '마케터'와 '에디터'에 가깝지, UX writier에 가까운 이력은 아니라서 강의 수강 전부터 많이 망설이게 됐다.
강의 시수는 2시간 정도에 가격은 77,000원으로 강의 시수 대비 가격은 상당히 비싼 편에 속했다. 만약 이 정도 구성이 인프런과 같은 조금 더 open market에 가까운 강의 플랫폼에 올라왔다면, 혹은 경쟁 강의가 있다면 조금 더 저렴한 3~5만 원대에 가격이 형성됐을 것이다. 아직은 one & only 강의라는 이점을 누리는 듯하다.
물론 강의 시수와 가격이 항상 비례해야 하는 것은 아니다. 양질의 내용을 포함한다면 다를 것이다. 하지만 이 강의는...
누구를 위한 강의인가?
위와 같이 서비스 기획자, 마케터, UI/UX 디자이너를 위한 강의였지만, '어떤 수준'의 사람을 위한 강의인지는 명시되지 않았고, 실제 수강 결과 '입문'레벨의 강의로 볼 수 있다.
왜 수강했는가?
나는 PM을 꿈꾸고 있다. 좋은 product manager가 되기 위해서는 화면 설계에 대한 전문성을 갖춰야 할 것이며, 화면 설계 시 유저 향 문구에 대해서 고민이 많았다.
예를 들어, 버튼의 이름을 '다음'으로 할지 '다음 단계'로 할지 '다음으로'로 할지 그냥 화살표'→'로 할지...
생각보다 화면의 문구를 결정하는 것은 어려운 일이었고, 매번의 고민을 줄이기 위해서는 학습이 필요했다.
그러던 중 같은 문구도 조금 더 쉽고 간결하게 쓰는 토스 사례를 보면서 UX writing에 관심을 갖게 되었고, 관련 자료를 찾아보던 중 해당 강의가 도움이 될 수 있을 것이라 생각해 수강하게 됐다.
무엇을 배웠는가?
크게는 다음과 같이 나눌 수 있다.
- ux writing이 왜 필요한지와 같은 기본개념
- ux writing의 좋은/나쁜 사례
기본개념을 설명해주시고, 사례들을 계속 보여주시면서 120분 중 80분 가까운 시간이 지나간다.
🔥 배운점 요약
positive point & lesson learned
- ux writing에 대한 개략적인 이해를 할 수 있었다. 왜 탄생하게 되었고, 주요 특징점은 무엇인지 가이드를 얻을 수 있었다.
- 여러가지 사례를 통해서 어떤 문구가 잘된 문구고 어떻게 개선해나가야 하는지 볼 수 있었다.
→ ux writing은 아는 것보다 직접 작성하는 연습이 더 중요한 분야라서 강의에서 문제를 보여주고, 직접 수강생이 개선해보는 과제들을 할 수 있었다면 훨씬 배우는게 많은 강의가 됐을 것같다.
negative point
- 위 밖에도 ux writer를 위한 툴 추천과 같은 내용도 있었으나, 관련도가 상당히 낮다고 느껴지는 내용이어서 그저 강의 시수를 채우고자 넣으신 게 아닐까 생각했다. ux writer를 위한 툴이라면 같은 단어도 쉽게/짧게 표현할 수 있는 방법, 유저에게 익숙한 표현들을 모아둔 무언가 툴을 생각했는데, 블로그 마케팅에서 사용할 법한 키워드 서칭 사이트를 알려주셔서 실망감이 컸다.
기대와 같았는가?
전혀 달랐다. 예상보다 ux writing에 대한 전문성/인사이트가 부족해 보였다. ux writing에 대한 개념은 <microcopy> 책이나 brunch를 통해 얻을 수 있는 수준이었고, ux writing의 좋은/나쁜 사례는 그저 좋다 나쁘다 소개해주는 것으로 끝났다. 왜 좋은 문구고 왜 안 좋은 문구인지 자세하게 파고들어 가지 않고 showing 해주는 데에 그쳤다.
또 한 가지 아쉬웠던 점은, 강의 자료가 존재하나 제공하지 않는다는 점이다. 수강 화면에서 web을 통해 강의 자료를 눈으로 확인할 수 있지만, 다운로드할 수 없어 강의 자료에 필기를 한다거나 하는 액션은 불가능해 불편했다.
강의 내용도 만족스럽지 못했는데, 강의자료 또한 다운로드할 수 없어서 강의 자체에 대한 불만이 증폭됐다.
driver에 url을 입력하고, 그안에 소스를 가져와 req에 넣고 beautifulsoup에 적용시킨다.
articles = soup.select('#main_pack > section.sc_new.sp_nnews._prs_nws > div > div.group_news > ul > li')
네이버 검색결과는 구조가 sp_news 1 > .... sp_news 5 > ... 이렇게되어있음. 그래서 앞에서 이미지 크롤링 한 것처럼 {i}반복구문을 사용할 수 없음 다른 방법은, 해당 기사 위에 위에 있는 ul 의 selector를 copy 해서 그 안의 li를 출력해라 라고 구문을 써주면됨 위 처럼
🔥 검색 포털, 사이트마다의 url 구조가 모두 달라서, 각 페이지마다의 상황을 고려해가면서 코드를 작성해주어야한다. 위 코드로 구글, 다음 등에서 진행하면 error 가 발생한다.
for article in articles: title = article.select_one('div.news_wrap.api_ani_send > div > a').text url = article.select_one('div.news_wrap.api_ani_send > div > a')['href'] press = article.select_one('a.info.press').text.split(' ')[0].replace('언론사','') print(title, url, press)
- title 내용 : 나온 내용중에서 text만 필요해서 .text를 붙였다 .text는 여기 안붙이고 아래에 title.text로 해도 된다.
- url 내용 : url을 추가했음. url은 dictionary형태로 되어있어서(?) key값인 href를 넣어주니 value값인 url을 뱉어냄. copy selector 해서 붙여넣기
- press 내용 : 서, 가장 낮은단위로 a.info.press를 해보고 안되면 다른거 하려고 했는데 이걸로 돼서 진행함. 안되면 여러가지 시도해야됨. 그리고 .text를 붙여서 텍스트만 가져오고, 띄어쓰기를 기준으로 '선정'이라는 내용이 뒤에 붙어있어서 그부분 split으로 제거하고 앞에만 가져온다음에, replace로 '언론사'를 삭제
driver.quit()
driver 종료함! end.
출력 결과
추석 이후 서울 외곽지역 집값 상승 주도…강북·구로 높은 상승률 http://www.newsis.com/view/?id=NISX20211001_0001600454&cID=10401&pID=10400 뉴시스
반도체의 힘…수출, 추석 휴무에도 65년 만 최대치 https://www.joongang.co.kr/article/25011561 중앙일보
반도체·추석연휴에 현대차 판매 22.3%↓..생산일정 조정 http://news.mt.co.kr/mtview.php?no=2021100115384196008 머니투데이
나주시, 추석 연휴 이후 24명 신규확진...코로나 방역관리 촉각 http://www.sportsseoul.com/news/read/1065993?ref=naver 스포츠서울
추석 후폭풍에 거리두기 유지 ... 결혼식, 돌잔치 등만 인원 추가 허용 https://hankookilbo.com/News/Read/A2021100111130003341?did=NA 한국일보
추석 후 감염 확산세…충북 거리두기 3단계 2주 연장 https://www.news1.kr/articles/?4449640 뉴스1
전국 아파트값 상승폭 주춤 “추석 및 금리 인상 영향” http://www.fnnews.com/news/202109301159398552 파이낸셜뉴스
추석 연휴·대출규제, 아파트 매매·전셋값 상승세 꺾여 http://www.inews24.com/view/1408105 아이뉴스24
서울 일주일째 '요일 최다'…추석 감염확산 현실로(종합) http://www.edaily.co.kr/news/newspath.asp?newsid=02279606629185368 이데일리
'추석후 1주일 만에' 학생 1828명 확진…하루 261명꼴 http://www.newsis.com/view/?id=NISX20210930_0001598924&cID=10201&pID=10200 뉴시스
(2) 크롤링 결과 excel에 저장하기
목표 : 네이버에서 '추석' 뉴스 검색결과의 기사 제목, URL, 언론사 명을 크롤링한 결과물을 엑셀에 저장한다.
전체 코드
from bs4 import BeautifulSoup
from selenium import webdriver
from openpyxl import Workbook
driver = webdriver.Chrome('./chromedriver')
url = "https://search.naver.com/search.naver?where=news&sm=tab_jum&query=추석"
driver.get(url)
req = driver.page_source
soup = BeautifulSoup(req, 'html.parser')
articles = soup.select('#main_pack > section.sc_new.sp_nnews._prs_nws > div > div.group_news > ul > li') #copy selector
wb = Workbook()
ws1 = wb.active
ws1.title = "articles"
ws1.append(["제목", "링크", "신문사"])
for article in articles:
title = article.select_one('div.news_wrap.api_ani_send > div > a').text
url = article.select_one('div.news_wrap.api_ani_send > div > a')['href']
press = article.select_one('a.info.press').text.split(' ')[0].replace('언론사','')
ws1.append([title, url, press])
driver.quit()
wb.save(filename='articles.xlsx')