반응형
반응형

‘인간 vs 인공지능’, 누구를 위한 대결이죠?


http://www.bloter.net/archives/272574


2월21일 ‘제2의 세기의 대결’이라는 타이틀을 걸고 열린 행사가 있습니다. 국제통역번역협회 (IITA)와 세종대학교, 세종사이버대학교가 공동 주최한  ‘인간 vs 인공지능(AI) 번역대결’ 행사입니다. ‘알파고’에 이어 인간과 AI의 두 번째 대결이라는 주최 측의 홍보가 더해지면서 대회는 뜨거운 화제로 떠올랐습니다.

주최측이 내린 결과는 인간의 승리. 기다렸다는 듯이 ‘인간의 압승이었다’라는 기사가 쏟아졌습니다. 동시에 알파고와의 바둑 대결에서 진 인간이 ‘정신 승리’한 것 아니냐는 비판이 쏟아졌습니다. 대결 방식을 두고 공정하지 않다는 논란이 이어졌습니다.


▲행사 메인 포스터, 세종대학교 제공

이 대결은 현업에 종사하고 있는 전문 번역사 4명과 구글 번역기, 네이버 번역기 ‘파파고’, 시스트란 번역기 등 총 번역기 3가지가 제한된 시간 안에 영어와 한국어 지문을 번역하는 방식으로 이뤄졌습니다. 번역기는 10분 동안, 인간은 50분 동안 문제를 번역했습니다.

대결 직후 번역 평가 점수가 공개된 부분에 대해서도 평가 기준이 사람에게 맞춰져 있다는 비판도 있었습니다. 번역기 순위에 대한 추측성 보도가 쏟아졌습니다.


이런 기사 분위기에 행사를 연 주최측도 이해는 하지만 다소 억울하다는 반응을 보였습니다. 번역 분야에서 AI가 얼마나 인간의 능력에 가까워졌는지 비교해보자는 취지에서 행사를 진행했는데, 여론과 언론보도가 부정적으로 나오자 당혹스럽다는 입장입니다.

급기야 국제통번역협회와 세종대 측은 책임을 서로 미루기 시작했습니다. 먼저 선을 그은 건 국제통번역협회입니다. 강대영 국제통번역협회 국장은 <블로터>와 전화통화에서 “주최는 우리(협회)가 한 것이 맞지만, 공정성 문제 때문에 출제 및 평가는 심사 위원에게 일임했으며, 우리는 진행만 했다”라고 밝혔습니다.

“불공정성 논란이 나오는 건 엄연한 사실입니다. 인간은 기계처럼 빨리 번역할 수 없습니다. 기계와 인간을 일대일로 대입한다면 본질에서 불합리합니다. 공정한 조건은 제한 시간을 동일하게 해야 하는데, 그게 불가능하니 한계라고 잡고 갔습니다. 시간을 좀 더 주는 것으로.”

인간과 번역기의 대결은 분야 특성상 완벽히 공정한 여건을 만들기는 어렵습니다. 번역엔 명확한 정답이 없기 때문입니다. 협회 측 역시 출제된 문제 중 인간 번역사한테 일방적으로 유리한 것도 있었다며 대회를 둘러싼 불공정성 논란을 인정했습니다.

김대종 세종대학교 홍보실장 역시 이번 행사에 대해 진행만 했을 뿐이라고 얘기합니다. 문제 제출과 평가를 세종대에서 맡긴 했지만, 그런 부분은 모두 곽중철 한국외대 통번역대학원 교수가 했다고 답했습니다.

“곽중철 교수가 한국 번역업계에서 누구도 토 달 수 없을 만큼 최고이기 때문에 그분에게 모든 걸 맡겼습니다. 행사 진행도 구글에는 연락했는데 답이 없었고, 네이버는 협회 측에서 연락한 것으로 알았으며, 시스트란은 행사 소식 듣고 먼저 연락이 왔습니다.”

국제통번역협회와 세종대학교 측 모두 행사는 주최했지만, 자세한 행사 내용이나 진행 과정에 대해서는 모른다고 입을 모았습니다. 주최한 곳은 있는데, 정말 주최했다고 얘기하는 곳은 없는 셈이지요.

행사를 두고 참여 업체로 거론된 구글, 네이버, 시스트란도 불만이 많습니다. 구글과 네이버는 행사에 자신들이 ‘참여’했다는 주최측 말에 황당하다는 반응을, 참여 의사를 밝힌 시스트란 역시 행사 진행에 대해 불만을 토로했습니다.


...


주최측과 여러 업체, 관계자의 말처럼 인간과 기계의 역할을 따로 분리할 것이 아니라 인간이 기술을 어떻게 활용할 수 있을지에 초점을 맞췄다면 어땠을까요. 소문난 잔치에 먹을 게 있는 행사가 됐을 지 모릅니다.

집단지성을 이용한 번역 서비스를 운영하는 이정수 플리토 대표는 이번 대회를 두고 ‘인간과 기계의 공존’을 생각해 봐야 한다는 의견을 내놓았습니다.

“이번 대회의 공정성과 인간과 기계의 장단점을 따지는 것은 아무 의미가 없습니다. 기계 번역이 아무리 발전하더라도 시대마다 달라지는 문화적 의미와 뉘앙스를 읽어내는 건 인간의 영역이죠. 동시에 기계번역이 인간에게 가져올 편리함은 분명히 존재한다는 점을 인정합니다. 결국, AI는 사람의 번역 데이터를 기반으로 발전하고, 기계의 도움으로 통번역가들은 서비스의 편의를 얻을 수 있으므로 둘의 공존이 불가피하죠.”

지난해 인간과 퀴즈대결을 벌인 국산 AI ‘엑소브레인’ 개발을 담당한 ETRI 박상규 박사는 번역기에 대해 다음과 같은 의견을 전했습니다.


“AI 번역이 아직 사람을 대체할 수준은 아니지만, 장점은 있어요. 인간처럼 정확하게는 못해도 빠른 시일 내에 많은 문장을 번역할 수 있다는 점, 여러 사람에게 동시에 서비스할 수 있다는 점입니다.”


인간과 AI가 서로 경쟁이 아닌, 상생할 수 있는 부분이 있습니다. 대결 결과처럼 기계의 빠르기와 생산성을 활용하면서 자동번역기가 번역하기 어려운 부분을 통번역사가 편집하면 훨씬 생산성 높은 번역 작업이 이뤄질 수 있을 것입니다. 


아마 곧 따라잡을수 없게 될 것이다. 기계는 잠을 자지 않고 배우고 있으니까. 


.

반응형
반응형
네이버 뉴스, 인공지능이 추천한다.


네이버 뉴스편집에서 인간의 개입이 줄어든다. 네이버는 지난 2월17일 모바일 메인 ‘뉴스판’에서 에어스(AiRS, AI Recommender System, 이하 ‘에어스’)를 통한 뉴스 추천 베타테스트를 사작한다고 밝혔다. 에어스는 네이버가 자체 연구, 개발한 인공지능 기반 추천 시스템이다.

AirS (1)
사진=네이버

에어스 추천 뉴스 베타판은 무작위로 선정된 일부 사용자를 대상으로 제공된다. 네이버 다이어리에서도 만나볼 수 있다. 에어스는 공기(air)와 같이 항상 이용자 곁에서 유용한 콘텐츠를 추천한다는 의미로 명명된 인공지능 기반 추천 시스템이다. 네이버는 이 같은 시스템을 2016년 MY피드, 네이버 TV 일부에 적용, 이용자들의 콘텐츠 소비패턴과 시간의 경과에 따라 변하는 개인별 관심사를 분석하며 이에 따른 콘텐츠를 자동으로 추천하고 있다.

네이버는 모바일 메인 ‘뉴스판’ 중단 배너 영역 아래, ‘AiRS 추천 뉴스 영역(베타버전)’을 마련하고, 최근 7일 간 ▲사용자가 네이버 모바일과 PC에서 구독한 뉴스 및 ▲사용자와 관심사가 비슷한 그룹이 구독한 뉴스를 기반으로, NPMI(추천 스코어)Normalized Point-wise Mutual Information, Item-to-item 모델에서 item(콘텐츠)간 유사도 계산 시에 사용되는 통계값이다.  co-occurrence(동시 발생)만을 고려한 모델에 비해 item간 조건부 확률까지 분석해, 보다 정교한 추천이 가능한 방식이다close, 최신성, 다양성 등을 추출 및 분석해 개인별 관심도, 선호도가 높은 뉴스를 추천한다. 해당 영역에서는 사용자의 관심사에 따른 뉴스를 추천하며, 소비에 따라 실시간으로 새로운 뉴스를 업데이트하며 다양한 뉴스를 제공한다.

네이버의 뉴스판은 워낙 많은 사람이 이용하다 보니 편집과 관련해 정치·사회적으로 민감하다. 비교적 논란이 적을 수 있는 ‘연예’, ‘스포츠’보다 뉴스판에 먼저 에어스를 적용한 이유는 베타 테스트의 관점에서 테스트 사용자의 규모와 추천 대상 콘텐츠의 생산량(회전율)을 고려했기 때문이다. 향후 에어스는 네이버 모바일 주제판인 ‘연예’, ‘스포츠’ 등 더욱 다양한 주제판과 ‘웹툰’과 같은 네이버의 콘텐츠 서비스로 확대해, 사용자들의 세분화, 개인화된 관심사와 니즈에 적합한 맞춤 콘텐츠를 추천해나갈 예정이다.

비슷한 관심사의 사람들이 본 뉴스를 추천한다

에어스는 같은 관심사를 가진 사용자 그룹이 구독한 콘텐츠를 추천하는 CF(Collaborative Filtering, 협력 필터) 기술을 바탕으로 한다. CF기술은 컴퓨터가 보편화하던 1970년대부터 시작됐다. 정보의 양이 빠른 속도로 증가하면서 그에 걸맞은 정보 추천 시스템이 필요해져서다.

CF 기술은 네이버의 ‘콘텐츠 네트워크’에 적용, 비슷한 관심사를 가진 사용자 네트워크를 구축하고, 해당 구성원들이 많이 본 콘텐츠 중 관련도가 높은 콘텐츠를 우선 추천한다. CF기술은 넷플릭스의 영화 및 드라마 추천, 아마존의 쇼핑 상품 추천, 유튜브의 동영상 추천 등 글로벌 IT기업들도 활용하고 있다.

AirS (2)
사진=네이버

네이버는 인공신경망 기술인 순환신경망(RNN, Recurrent Neural Network)을 통해 콘텐츠를 추천하기 위한 내부 연구도 진행 중이라고 알렸다. 해당 기술은 사용자가 콘텐츠를 구독한 순서까지 기억한다. 시간이 지날수록 더욱 정교하게 콘텐츠를 분석하고, 생성된 지 얼마 되지 않은 최신 콘텐츠까지 추천할 수 있는 기술이다. 스스로 학습이 가능한 추천 시스템이다.

AirS (3)
사진=네이버

최재호 에어스 리더는 “에어스는 계속해서 학습을 통해 고도화되기 때문에 추천 품질은 지속적으로 좋아지게 된다”라며 “앞으로 CF 기술과 RNN 등 딥러닝 기술이 가진 장점을 융합해 더욱 고도화된 형태의 추천 시스템으로 진화하기 위한 연구를 지속할 예정”이라고 밝혔다.

편리한 기술, 부작용은 없을까?

콘텐츠 추천 시스템은 편리하다. 사람이 할 일이 줄어든다는 것은 부차적이다. 개인화된 맞춤 추천도 사용자 입장에서 편리하게 받아들여질 수 있는 기술이다. 대중의 취향보다는 같은 관심사를 공유하는 사람들의 취향이 사용자의 입맛에도 맞다. 알고리즘이 추천하는 시스템을 적용하면 ‘포털이 사실상의 뉴스편집권을 행사한다’는 논란을 비껴가기에도 좋다. ‘로봇이 사용자의 관심사를 기반으로’ 추천한다는 사실은 굉장히 공정해 보이기 때문이다.

‘다음’을 운영하고 있는 카카오는 2015년부터 ‘루빅스’라는 이름의 알고리즘 기반 추천 시스템을 뉴스 콘텐츠 제공에 사용하고 있다. 카카오 측은 “루빅스 적용 후 사용자에 따라 다른 뉴스가 노출되므로 메인에 노출되는 뉴스 수가 늘어난다”라며 “사용자의 입맛에 맞는 콘텐츠를 노출하게 되므로 뉴스 콘텐츠 소비량도 증가하는 효과를 얻을 수 있다”라고 장점을 강조한다.

▲필터버블은 개인 맞춤형 정보를 제공하는 과정에서 생겨난다.
▲필터버블은 개인 맞춤형 정보를 제공하는 과정에서 생겨난다. 

다만 비슷한 그룹의 관심사에 기반해 추천하는 기술은 ‘필터버블’의 우려에서 벗어나지 못한다. 필터버블은 인터넷 정보제공자가 이용자 맞춤형 정보를 제공해 필터링 된 정보만 이용자에게 도달하는 현상을 지칭한다. 개인 맞춤형 콘텐츠 추천 시스템의 부작용이다.

개인 맞춤형 콘텐츠 추천 시스템에 뉴스가 섞이면 부작용이 생긴다. 자기가 좋아하는 뉴스, 보고 싶은 뉴스만 보면 결국 정치·사회적인 문제에서 고정관념과 편견을 강화하는 계기가 된다. 강화된 고정관념과 편견은 좀 더 입맛에 맞는 게시물만 가지고 온다. 악영향이 강화되는 셈이다. 이렇게 되면 여론을 잘못 이해하게 될 뿐만 아니라, 전혀 잘못된 소식이 확산력을 가지게 되는 상황도 생긴다. 이러한 필터버블은 개인의 편견이나 고정관념을 강화하는 데 그치지 않고 사회와 정치에도 악영향을 미칠 수 있다.

네이버는 이러한 우려에 대해 “이용자 행태를 분석하는 과정에서 일괄적으로 필터링하거나 어느 한쪽으로 쏠리기보다는, 개개인의 시시각각 변하는 관심사를 인식하여 최적화된 추천 결과를 예측하는 데 중점을 두고 있다”라며, “뉴스판의 경우만 보더라도 npmi(추천 스코어) 이외에 다양성이나 최신성 등이 충분히 고려되며, ‘추천 뉴스 새로 보기’를 통해 여러 분야의 다양한 기사들도 계속 접할 수 있다”라고 답변했다.

시스템과 로직은 공개할 의향 있어

보통 알고리즘은 기업 비밀로 취급되곤 한다. 하지만 뉴스편집은 약간 예외가 될 수 있다. ‘왜 해당 뉴스가 비중있게 다뤄지는지’, ‘더 긴 노출 시간을 확보하는지’는 기업의 문제이면서 동시에 사회의 문제다. 이와 관련된 알고리즘이 투명하게 알려지는게 중요한 이유다. 카카오는 작년 말에 “루빅스가 어떤 팩터로 구성됐고, 어떻게 작동하는지에 대한 공개를 준비하고 있다”라고 밝힌 바 있다. 네이버 측도 “아직 연구 실험 중인 부분이 있어 향후 바뀔 수는 있지만”이라고 전제는 달았지만 “기본적인 시스템이나 로직은 기회가 된다면 공개할 예정이다”라고 답변했다.

유봉석 네이버 미디어서포트 리더는 “에어스를 통해, 사용자들이 네이버 모바일 홈에서 다양한 영역에 걸쳐있는 개인 관심사에 대한 뉴스를 더욱 편리하게 확인할 수 있게 될 것으로 기대한다”라며, “기술을 기반으로 투명한 뉴스 서비스를 제공하기 위한 노력을 이어갈 것이다” 라고 말했다.






.


반응형
반응형

유다시티, 자율주행차 시뮬레이터 오픈소스로 공개


http://www.bloter.net/archives/271788


온라인 교육 업체 유다시티가 자율주행차 시뮬레이터를 오픈소스 기술로 공개했다고 2월8일 밝혔다.


이번에 공개한 시뮬레이터는 유다시티 온라인 강의 ‘자율 주행차 엔지니어링 과정’의 일부 수업 자료다. 자율 주행차 엔지니어링 과정은 유다시티 뿐만 아니라 BMW, 우버, 디디추싱, 메르세데스 벤츠, 엔비디아 등이 함께 협력해 만든 강의로 딥러닝, 컨트롤러, 컴퓨터 비전, 자동차 하드웨어 등을 가르친다. 강의는 유다시티 설립자이자 과거 구글에서 자율주행차 개발을 이끈 세바스찬 스런이 직접 진행하기도 하다. 유다시티는 이 강의를 위해 오픈소스 자율자동차 소프트웨어를 개발하고 있으며, 이와 관련된 소스코드를 깃허브에 전부 공개했다. 여기에는 주행 기록 데이터, 딥러닝 모델, 카메라 마운트 기술 등이 포함돼 있다.



A self-driving car simulator built with Unity 


Welcome to Udacity's Self-Driving Car Simulator

This simulator was built for Udacity's Self-Driving Car Nanodegree, to teach students how to train cars how to navigate road courses using deep learning. See more project details here.

All the assets in this repository require Unity. Please follow the instructions below for the full setup.

Avaliable Game Builds (Precompiled builds of the simulator)

Instructions: Download the zip file, extract it and run the exectution file.

Version 2, 2/07/17

Linux Mac Windows

Version 1, 12/09/16

Linux Mac Windows 32 Windows 64

Unity Simulator User Instructions

  1. Clone the repository to your local directory, please make sure to use Git LFS to properly pull over large texture and model assets.

  2. Install the free game making engine Unity, if you dont already have it. Unity is necessary to load all the assets.

  3. Load Unity, Pick load exiting project and choice the self-driving-car-sim folder.

  4. Load up scenes by going to Project tab in the bottom left, and navigating to the folder Assets/1_SelfDrivingCar/Scenes. To load up one of the scenes, for example the Lake Track, double click the file LakeTrackTraining.unity. Once the scene is loaded up you can fly around it in the scene viewing window by holding mouse right click to turn, and mouse scroll to zoom.

  5. Play a scene. Jump into game mode anytime by simply clicking the top play button arrow right above the viewing window.

  6. View Scripts. Scripts are what make all the different mechanics of the simulator work and they are located in two different directories, the first is Assets/1_SelfDrivingCar/Scripts which mostly relate to the UI and socket connections. The second directory for scripts is Assets/Standard Assets/Vehicle/Car/Scripts and they control all the different interactions with the car.

  7. Building a new track. You can easily build a new track by using the prebuilt road prefabs located in Assets/RoadKit/Prefabs click and drag the road prefab pieces onto the editor, you can snap road pieces together easily by using vertex snapping by holding down "v" and dragging a road piece close to another piece.


Self-Driving Car Simulator





.


반응형
반응형

텐서플로  https://www.tensorflow.org/

 

구글(Google)사에서 개발한 기계 학습(machine learning) 엔진. 검색, 음성 인식, 번역 등의 구글 앱에 사용되는 기계 학습용 엔진으로, 2015년에 공개 소스 소프트웨어(open source software)로 전환되었다.

 

 텐서플로는 C++ 언어로 작성되었고, 파이선(Python) 응용 프로그래밍 인터페이스(API)를 제공한다.

 

텐서플로는 빠르고 유연하여 한 대의 스마트 폰에서도 운영될 수 있고, 데이터센터의 수천 대 컴퓨터에서도 동작될 수 있다.

 

Google : https://googleblog.blogspot.kr/2015/11/tensorflow-smarter-machine-learning-for.html

 

Github : https://github.com/tensorflow/tensorflow

 

 

FB Sight에 오신것을 환영합니다 (Terms of Service)!  : http://fbsight.com/c/TF-KR

 

 

About TensorFlow

 

TensorFlow™ is an open source software library for numerical computation using data flow graphs. Nodes in the graph represent mathematical operations, while the graph edges represent the multidimensional data arrays (tensors) communicated between them. The flexible architecture allows you to deploy computation to one or more CPUs or GPUs in a desktop, server, or mobile device with a single API. TensorFlow was originally developed by researchers and engineers working on the Google Brain Team within Google's Machine Intelligence research organization for the purposes of conducting machine learning and deep neural networks research, but the system is general enough to be applicable in a wide variety of other domains as well.

 

 

 

.

반응형
반응형

스마트폰 이후…'AI비서 전쟁' 승자는

 

지난 10년은 애플의 시대였다. 2007년 내놓은 아이폰을 앞세워 ‘모바일 시대’를 지배했다.

애플 파워의 핵심은 ‘생태계’였다. 생물학에서나 쓰였던 이 단어는 애플 이후 비즈니스 상용어로 바뀌었다.

생태계와 함께 애플의 또 다른 무기는 ‘디자인’과 ‘인터페이스’였다. 특히 물리적 키보드를 깔끔하게 치워버린 터치스크린 UI는 아이폰 파워를 극대화한 ‘회심의 한 수’였다.

스마트폰을 중심으로 한 생태계 안에선 애플을 당할 자가 없다. 그런데 이젠 조금씩 경기 규칙이 바뀌려 하고 있다. 그럴 경우엔 얘기가 달라진다.


굳이 비유하자면, 프로복싱의 시대가 가고 종합격투기 시대가 열리려는 조짐이 보이고 있단 얘기다.

그 상징적인 무대가 올 초 열린 CES 2017이었다. 인공지능(AI)과 사물인터넷(IoT) 등이 중심이 된 4차산업혁명 시대는 애플이 아닌 다른 기업이 주도할 수도 있다는 단초를 보인 행사였다.

그리고 ‘애플 아닌 다른 기업’으로 유력하게 떠오른 업체가 바로 아마존이었다. 알렉사란 뛰어난 음성인식 플랫폼을 갖고 있는 아마존은 행사 기간 내내 화제가 됐다.

외신들에 따르면 LG, GE, 포드 등이 알렉사를 탑재한 기기를 선보였다. 알렉사는 스마트폰 시대의 상징인 ’터치스크린 UI’ 대신 ‘제로 UI’란 새로운 시대 흐름을 선도하고 있다.

제로 UI란 스크린이 없는 UI를 의미한다. 손 대신 말로 각종 기기를 작동시키는 상황을 묘사한 말이다. IoT와 인공지능이 결합된 시대를 대표하는 키워드다.


가장 요란하게 음성인식 비서를 채용한 건 애플이었다. 지난 2011년 아이폰4S에 시리를 탑재하면서 시장을 떠들썩하게 만들었다.

하지만 실속 면에선 다소 아쉬운 편이다. 아마존을 비롯한 경쟁자들이 이 부문에서 한 발 한 발 전진해갈 때 애플은 제자리에서 크게 벗어나지 못했다.

애플뮤직, 비츠, 시리 같은 다양한 소품들을 갖고 있긴 하지만 ‘꿰어야 보배’다. 아마존 알렉사 같은 것들이 시장을 지배하고 있는 상황에서 애플이 뛰어들 여지는 갈수록 좁아지고 있다.

애플의 거실점령 야심작 중 하나인 홈키트(HomeKit)는 여전히 만족스런 수준에 이르지 못했다. ‘터치스크린’과 ‘앱스토어 생태계’로 지난 10년을 지배한 애플 입장에선 고민스러운 상황이 아닐 수 없다.



원문보기:
http://www.zdnet.co.kr/news/news_view.asp?artice_id=20170117095755#csidx170b5d05017d76abcdd90e3dcec4ee0  

 

 

.

반응형
반응형

AI혁명…'제로스크린 시대'가 온다


올초 공개된 로이터연구소의 ‘디지털 뉴스 프로젝트 2017’에도 눈길 끄는 내용이 담겨 있다. (☞ 로이터연구소 보고서 바로가기)


로이터연구소가 주목한 것도 최근 IT 시장 흐름과 비슷하다. 아마존 알렉사를 비롯해 애플 시리, MS 코나타, 삼성의 비브, 구글 어시스턴트 같은 것들이 연이어 등장하면서 홈 디지털 생태계 경쟁이 뜨겁게 달아오를 것이란 전망에 바탕을 두고 있다.

뉴스 시장 경쟁도 이런 흐름과 크게 다르지 않을 것이란 얘기다.

여기서 중요하게 대두되고 있는 개념이 ‘제로 UI’다. 제로UI란 쉽게 얘기하면 ‘스크린이 없는 이용자 인터페이스’(screen-less user interface)를 의미한다.

지난 10년 간 IT 시장의 중심이 된 스마트폰의 상징은 터치스크린 UI다. 다양한 아이콘을 손끝으로 살짝 누르면 작동되는 터치스크린은 스마트폰을 ‘콘텐츠 소비 플랫폼’의 중심으로 만들어줬다.

하지만 사물인터넷(IoT)과 로봇, 그리고 인공지능 기술이 결합되면서 ‘터치스크린 시대’가 종언을 구하고 있다. 이 기술들의 결합물은 음성인식 비서만 있으면 굳이 스크린이 필요 없기 때문이다.




http://www.zdnet.co.kr/column/column_view.asp?artice_id=20170116160851




.

반응형

+ Recent posts